Sie sind auf Seite 1von 115

Notas de

Álgebra Lineal Elemental

por
José Antonio Belinchón
ii
iii

Prólogo

La idea fundamental de esta notas confecionadas a modo de resumen (personal) es


la de tener a mano un recordatorio de por donde iban los tiros. Sólo se demuestran
los teorema fundamentales y se acompoña el texto con una serie de ejercios más o
menos trabajados. En modo alguno pretenden sustituir (porque es implosible) los
manuales clásicos o las notas de clase de un profesor. Es decir, estas notas estan
confeccionadas a modo de refrito entre las notas de clase que tomé en su día y de
distintos libros clásicos como los siguientes:

1. Golovina, L.I. Álgebra lineal y algunas de sus aplicaciones Edt. MIR 1980

2. Hernández, E. Álgebra y geometría. Addison-Wesley/UAM 1994

3. Castellet, M et al. Álgebra lineal y geometría. Edt. Reverté 1994

4. Rojo, J. et al. Ejercicios y Problemas de álgebra lineal. McGraw-Hill 1994

5. de Diego, B et al. Problemas de álgebra y geometría. Edt. Deimos 1991

6. Lipshutz, S. Álgebra lineal. McGraw-Hill 1968.

todo ello aderezado (como he indicado antes) con una serie de ejemplos de-
sarrollados (eso espero) al final de cada capitulillo.

ADVERTENCIA: No están concluidas y es muy posible que hayan sobre-


vivido numerosas erratas. Toda observación en este sentido es bien recibida.
iv
Índice General

1 Espacios Vectoriales. 1
1.1 Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Composición de espacios. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Aplicaciones Lineales 9
2.1 Aplicaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Ecuaciones implı́citas de un subespacio. . . . . . . . . . . . . . 16
2.3 Homomorfismo transpuesto. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Determinantes y Sistemas 19
3.1 Aplicaciones multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Tensores simétricos. . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Tensores antisimétricos. . . . . . . . . . . . . . . . . . . . . . . 21
3.1.3 Álgebra exterior. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1 Permutaciones de orden n. . . . . . . . . . . . . . . . . . . . . 21
3.2.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.3 Formas n−lienales alternadas. . . . . . . . . . . . . . . . . . . . 22
3.2.4 Propiedades de las formas n-lineales alternadas. . . . . . . . . . 23
3.2.5 Expresión analítica de una forma n-lineal alternada. . . . . . . 23
3.2.6 Determinante de un sistema de vectores. . . . . . . . . . . . . . 23
3.2.7 Determinante de una matriz cuadrada. . . . . . . . . . . . . . . 24
3.2.8 Determinante de un endomorfismo. . . . . . . . . . . . . . . . . 24
3.2.9 Rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.10 Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Sistemas lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Clasificación de Endomorfismos. Matrices de Jordan 45


4.1 Clasificación de endomorfismos. . . . . . . . . . . . . . . . . . . . 45
4.2 Polinomio mı́nimo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Subespacios invariantes. . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Grado del polinomio mı́nimo. . . . . . . . . . . . . . . . . . . . . . 50
4.5 Matriz canónica de un endomorfismo. (Jordan). . . . . . . . . 52
vi ÍNDICE GENERAL

4.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5 Formas Bilineales y Cuadráticas. 67


5.1 Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.1 Diagonalización de formas bilineales. . . . . . . . . . . . . . . . 71
5.2 Formas cuadráticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6 Espacios vectoriales euclı́deos. 89


6.1 Espacios vectoriales euclı́deos. . . . . . . . . . . . . . . . . . . . . . . . 89
6.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3 Subespacio ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.4 Producto vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.5 Aplicaciones entre espacios euclídeos. . . . . . . . . . . . . . . . . . . . 93
6.5.1 Aplicaciones adjuntas y autoadjuntas . . . . . . . . . . . . . . 93
6.5.2 Diagonalización de aplicaciones autoadjuntas y hermíticas. . . 94
6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias . . . . . . . . 97
6.5.4 Diagonalización de matrices unitarias. . . . . . . . . . . . . . . 98
6.5.5 Forma canónica de una matriz ortogonal. . . . . . . . . . . . . 99
6.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Capı́tulo 1
ESPACIOS VECTORIALES.

1.1 Espacios Vectoriales.


Definición 1.1.1 Sea K un cuerpo conmutativo. Un espacio vectorial V definido
sobre un cuerpo K vieve dado por un conjunto no vacio de elementos vectoriales
sobre los que están definidos dos operaciones:

1. Una interna, la suma, (V, +) tiene estructura de grupo abeliano

+ : V × V −→ V
(u, v) 7−→ u + v

i.e. verifica las propiedades:

• asociativa
• ∃ elemento neutro
• ∃ inverso
• conmutativa.

2. Externa, (V, ·) producto por escalares:

· : K × V −→ V
(λ, u) 7−→ λu

verificando las siguientes propiedades:

• λ(u + v) = λu + λv
• λ(µ + v) = λµ + λv
• λ(µv) = λµv
• 1µ = µ

Bajo estas circunstancias podemos decir que (V, +, ·) es un espacio vectorial


sobre el cuerpo K.

Definición 1.1.2 Subespacio. Sea W un conjunto no vacio. Decimos que W es un


subespacio vectorial de V si verifica las siguientes condiciones:

• Sean u, v ∈ W =⇒ u + v ∈ W

• λ ∈ K, u ∈ W =⇒ λu ∈ W
2 Espacios Vectoriales.

Definición 1.1.3 Suma directa de subespacios. Sean W1 y W2 dos subespacios vec-


toriales. Si W1 ∩ W2 = ~0 entonces decimos que la suma entre los dos subespacios es
directa y se denota por W1 ⊕ W2 . La suma de dos subespacios W1 y W2 es directa sii
cada vector de W1 + W2 se puede expresar de manera única como suma de un vector
de W1 y de otro de W2 .

Definición 1.1.4 Combinación lineal. Sea V un espacio vectorial. Sean {v1 , ...., vn }
vectores del espacio V . Decimos que un vector u es combinación lineal de {v1 , ...., vn }
si se puede expresar de la siguiente forma:
X
u= λi vi
i

Definición 1.1.5 Sistema de generadores. Se dice que un conjunto b de vectores


de V es sistema de generadores si cualquier vector de V se puede expresar como
combinación lineal de vectores de b.

Definición 1.1.6 Un conjunto b de vectores es linealmente dependiente si existen


escalares λi no todos nulos tales que
X
λi vi = ~0
i

y lo es linealmente independiente si @ λi o son todos nulos tales que


X
λi vi = ~0
i

Proposición 1.1.1 Sean {v1 , ...., vn } vectores de V entonces {v1 , ...., vn } son lineal-
mente independientes sii al menos uno de ellos se puede expresar como combinación
lineal de los demás.

Proposición 1.1.2 Supongamos que {v1 , ...., vn } son todos linealmente independi-
entes. Sea u ∈ V tal que u no es combinación lineal de {v1 , ...., vn } entonces
{v1 , ...., vn } son linealmente independientes (L.I.).

1.2 Bases.
Definición 1.2.1 Base. Decimos que S es base de un espacio V si cumple las sigu-
ientes condiciones:

1. S es sistema de generadores de V

2. S es L.I.

Teorema 1.2.1 Base.

1. Todo espacio vectorial V tiene al menos una base.

2. Todas las bases de V tienen el mismo número de elementos.


Bases. 3

Demostración. (1).- Sea B ⊂ V /B es un sistema de generadores B =


{v1 , ...., vn } , si los {v1 , ...., vn } son LI entonces forman base. Si no es así entonces
alguno de los vectores será combinación lineal de los otros, entonces elimonamos ese
vector de tal forma que queden n−1 vectores y comprobamos si son LI o no. Si resulta
que estos n − 1 vectores son LI entonces forman base en caso contrario continuamos
el método de ir eliminando vectores LD hasta que en el peor de los casos sólo quede
un único vector, en este caso formará base al ser sistema de generadores.
(2).- Sea S = {v1 , ...., vp } ⊂ V. Sabemos que existe una base B = {v1 , ...., vn }
del espacio vectorial V . Lo que tenemos que ver es que cualquier otra base de V
tiene igual número de elementos que B i.e. n elementos. Sea B0 otra base de V ,
como los vectores de B 0 son LI entonces cualquier subconjunto suyo también será
LI, luego el número de elementos de cualquier subconjunto finito de B0 tendrá que
ser menor igual que el número de elementos de B i.e. n, pero al ser B sistema de
generadores entonces el número de elemetos de B0 es menor igual que el número de
elemetos de B i.e. n. Por lo tanto tenemos que cardB0 ≤ cardB. Si cambiamos los
papeles i.e B0 ←→ B aplicando el mismo razonamiento llegaríamos a la conclusión de
que cardB ≤ cardB 0 de lo que deducioms que cardB0 = cardB y por lo tanto todas
las bases tienen igual número de elementos.

Definición 1.2.2 Sea V un espacio de tipo finito sobre K. Se llama dimensión del
espacio V al número de elementos que tiene una base cualquiera de V y se denota
por dim V.

Proposición 1.2.1 Un conjunto B de vectores de un espacio vectorial es base de V


sii cada vector de V se expresa de manera única como combinación lineal de vectores
de B.

Sea V un espacio vectorial de tipo finito sobre un cuerpo K, sea S = {v1 , ...., vn }
un sistema de generadores de V . Sean {v1 , ...., vp } L.I. entonces encontramos que
n ≥ p. De igual forma si S = {v1 , ...., vp } es un sistema de generadoresde V en-
tonces p ≥ dim V y si {v1 , ...., vp } son un conjunto L.I. de vectores de V resulta que
p ≤ dim V. Si S = {v1 , ...., vp } es un sistema de generadores de V y p = dim V en-
tonces S forma un conjunto L.I. y por lo tanto base. Y por último si S = {v1 , ...., vn }
son vectores L.I. tales que n = dim V entonces S es base de V .

Teorema 1.2.2 Base incompleta. Sea V un espacio vectorial de dimensión finita n


sobre un cuerpo K. Sea {v1 , ...., vp } vectores L.I. con p ≤ n. Entonces existen n − p
vectores {u1 , ...., un−p } tales que {v1 , ...., vp , u1 , ...., un−p } que forman base de V.

Demostración. Sea (V, K) un e.v. tal que dim V = n. Sea {v1 , ...., vp }
vectores L.I. con p ≤ n. Si p = n entonces forman base. Si p < n como los {v1 , ...., vp }
son un sistema de generadores entonces existe un vector ui ∈ / L [v1 , ...., vp ] entonces
{ui , v1 , ...., vp } son LI. Si resulta que n = p + 1 entonces formarían base. Si p + 1 < n,
repitiendo el razonamiento, vemos que existe un vector uj ∈ / L [ui , v1 , ...., vp ] entonces
{uj , ui , v1 , ...., vp } son LI. Si resulta que n = p+2 entonces formarían base. Repitiendo
el argumento n − p veces llegamos a la conclusión de que existen {u1 , ...., un−p }
vectores de tal forma que {v1 , ...., vp , u1 , ...., un−p } que forman base de V.

Consecuencia: Sea L ⊂ V / L = L [v1 , ...., vp ] entonces existe BV =


{v1 , ...., vn } / {vp+1 , ...., vn } engendran un subespacio M ⊂ V i.e. M = L [vp+1 , ...., vn ]
4 Espacios Vectoriales.

y por lo tanto dim M = n − p. Estos dos subespacios son complementarios i.e.


V = L ⊕ M, (L ∩ M = ∅) y por lo tanto cualquier vector v ∈ V se escribirá co-
mo combinación de vectores de L y de M i.e
p
X n
X
v= λi vi + λj vj
i=1 j=p+1
| {z } | {z }
L M

Teorema 1.2.3 Fórmulas de Grassmann. Sea V un espacio vectorial de dimensión


finita n sobre un cuerpo K. Sea W un subesapcio vectorial de V entonces:

1. W es de tipo finito

2. dim W ≤ dim V

3. dim W = dim V sii W = V

Corolario 1.2.1 Sea V un espacio vectorial de dimensión finita n sobre un cuerpo


K. Sean W, U subespacios de V entonces

dim(U + W ) = dim U + dim W − dim(U ∩ W ).

Demostración. Sean L, M subespacios de V tal que L ∩ M 6= ∅. Sea


{u1 , ...., uk } una base de L ∩ M entonces dim L ∩ M = k. Entonces estos {u1 , ...., uk }
vectores son LI tanto en L como en M, i.e. {u1 , ...., uk } ⊂ L son LI y {u1 , ...., uk } ⊂ M
son LI. Las bases de L y M estan formadas por: BL = {u1 , ...., uk , uk+1 , ......, up } y
BM = {u1 , ...., uk , ω k+1 , ......, ω r } por el teorema de prolongación. Sea ahora un vector
v ∈ L+M que podemos escribir como v = u+ω i.e. v ∈ C.L. {u1 , ...., uk , uk+1 , ......, up , ω k+1 , ......, ω r }
entonces
L + M = L [u1 , ...., uk , uk+1 , ......, up , ω k+1 , ......, ω r ]
entonces dim L + M = p + r − k tenemos que ver que estos vectore son realmente LI
i.e. existen escalares {λi , µi } / λ1 u1 + ....+ λp up + µk+1 ω k+1 + ...... + µr ω r = 0 i.e.
λi = µi = 0

λ1 u1 + .... + λp up = − µk+1 ω k+1 + ...... + µr ω r
entonces L ∩ M 6= ∅. Se pueden expresar como combinación lineal de {u1 , ...., uk } con
escalares {δ j } de tal forma que

λ1 u1 + .... + λp up = − µk+1 ω k+1 + ...... + µr ω r
= δ 1 u1 + .... + δ k uk

entonces
δ 1 u1 + .... + δ k uk + µk+1 ω k+1 + ...... + µr ω r = 0
al formar base, resulta que el conjunto de {δ j } = 0. Por lo tanto

dim(L + M ) = dim L + dim M − dim (L ∩ M )

como queríamos demostrar.


Composición de espacios. 5

Definición 1.2.3 Subespacio complementario. Sea V un espacio vectorial de dimen-


sión finita n sobre un cuerpo K. Sea U un subespacio de V . Se dice que un subespacio
vectorial W de V es complementrario de U si

V =W ⊕U

Proposición 1.2.2 Todo subespacio vectorial de un espacio vectorial V de dimensión


finita tiene al menos un subespacio complementario.

1.3 Composición de espacios.


Definición 1.3.1 Producto de espacios vectoriales. Sean V y W espacios vec-
toriales sobre un mismo cuerpo K. Consideramos el producto cartesiano

V × W = {(v, w) / v ∈ V y w ∈ W }

definimos una opreación interna que viene dada por

(u, w) + (u0 + w0 ) = (u + u0 , w + w0 )

y también definimos en V ×W una operación de producto por escalares de K (externa)

λ(v, w, ) = (λv, λw)

El conjunto V × W con las operaciones así definidas es un espacio vectorial.

Proposición 1.3.1 Si {v1 , ...., vp } es una base de V y {w1 , ...., wn } es una base de
W se tiene que
{(v1 , 0), ...., (vp , 0), (0, w1 ), ......., (0, wn )}
es base de V × W

Proposición 1.3.2 Si V y W son dos espacios vectoriales de dimensión finita sobre


un cuerpo K entonces
dim(V × W ) = dim V + dim W

Definición 1.3.2 Partición de un conjunto. Sea X un conjunto no vacio. Se llama


partición de X a un subconjunto P de X /

• ∀ x ∈ X existe un elemento A de la partición / x ∈ A

• ∀ A, B ∈ P , si A 6= B entonces A ∩ B = ∅ son disjuntos.

• ∅∈P

Definición 1.3.3 Relación biunívoca. Sea X un conjunto. Se llama relación bi-


unívoca de X a cada subconjunto R de X × X. Si (x, y) ∈ R se dice que x está
realcionado con y por la relación R y se denota xRy.

Definición 1.3.4 Realción de equivalencia. Se dice que una relación biunívoca sobre
un conjunto X es de equivalencia si cumple las siguientes propiedades

1. Reflexiva xRx
6 Espacios Vectoriales.

2. Simétrica xRy =⇒ yRx

3. Transitiva xRy ∧ yRz =⇒ xRz

Definición 1.3.5 Clase de equivalencia. Sea X un conjunto no vacio y sea R una


relación de equivalencia sobre X. Se llama clase de equivalencia del elemneto x al
siguiente conjunto
{y ∈ X; xRy} := [x]R

Definición 1.3.6 Conjunto cociente. Llamamos conjunto cociente X/R al conjunto


cuyos elementos son clases de equivalencia según R. Los elementos de X/R consti-
tuyen una partición de X.

Definición 1.3.7 Espacio vectorial cociente. Sea (V /W ) un conjunto en el que


definimos las siguientes operaciones:

1. Suma. u + W , v + W ∈ V /W entonces (u + W ) + (v + W ) = (u + v) + W

2. Producto por escalares. u + W ∈ V /W y λ ∈ K =⇒ λ(u + W ) = λu + W

Proposición 1.3.3 (V /W ) tiene estructura de espacio vectorial con las operaciones


anteriormente definidas.

Demostración. V /W = {v + W / v ∈ V } y sobre este conjunto definimos


dos operaciones (como en la primera definición) y comprobamos que con ellas el
conjunto (V /W, +, ·) tiene estructura de espacio vectorial.
Con respecto a la primera de las operaciones la interna, vemos que (v + L) +
(w + L) = (v + w) + L está bien definida y que por lo tanto el conjunto (V /W, +)
tien estructura de grupo abeliano i.e. verifiaca las propiedades (asociativa, elemento
neutro, inverso y conmutativa)
Sea α ∈ K, definimos α (w + L) = αv + L. Comprobamos que está bien
definida y verificamos que el conjunto (V /W, ·) cumple las siguiente propiedades

λ(u + v) + L = λ (u + L) + λ (v + L)
(λµ) v + L = (λµv) + L
(λ + µ) (v + L) = λ (v + L) + µ (v + L)
1µ + L = v + L

por lo tanto queda demostrado.

Teorema 1.3.1 Sea V espacio vectorial de dimensión finita sobre un cuerpo K. Sea
W un subespacio de V entonces el espacio vectorial cociente es también de dimensión
finita y
dim (V /W ) = dim V − dim W

Demostración. Sea {wj }kj=1 = BL entonces BV = {wj }nj=1 (por el teo-


rema de prolongación de la base). Si BV /L = {wj + L}nj=k+1 entonces dim V /L =
n − k. Veámoslo: V /L = {x + L / x ∈ V } tenemos que ver que la base BV /L =
{wj + L}nj=k+1 forma un sistema de generadores y que son LI.
Ejemplos 7

S.G.: BV /L = {wj + L}nj=k+1 ya que para todo x + L ∈ V /L con x ∈ V


podemos expresar
Xk n
X
x= ai wi + bj wj
i=1 j=k+1

k
X n
X
x+L= ai (wi + L) + bj (wj + L) =
i=1 j=k+1
Xn
= bj (wj + L)
j=k+1

ya que {wj }kj=1 ∈ L entonces {wj }kj=1 + L = 0 + L ⇐⇒ {wj }kj=1 − 0 ∈ L ⇐⇒


{wj }kj=1 ∈ L.
L.I.: {wj + L}nj=k+1 son LI ya que
n
X
αj (wj + L) = 0 + L ⇐⇒
j=k+1
Xn
(αj wj ) + L = 0 + L ⇐⇒
j=k+1
n
X
(αj wj ) ∈ L
j=k+1

que nj=k+1 (αj wj ) ∈ M entonces nj=k+1 (αj wj ) ∈ L ∩ M entonces


P P
supongamos
Pn
j=k+1 (αj wj ) = 0 ⇐⇒ (αj ) = 0.

1.4 Ejemplos
8 Espacios Vectoriales.
Capı́tulo 2
APLICACIONES LINEALES

2.1 Aplicaciones Lineales.


Definición 2.1.1 Sean V, W dos espacios vectoriales definidos sobre un cuerpo K.
Decimos que la aplicación f es lineal

f : V −→ W

si verifica que:

1. ∀ v1 , v2 ∈ V, f (v1 + v2 ) = f (v1 ) + f (v2 )

2. ∀ v1 ∈ V, λ ∈ K f (λv1 ) = λf (v1 )

Proposición 2.1.1 f es aplicación lineal sii ∀ v1 , v2 ∈ V, ∀ λ, µ ∈ K

f (λv1 + µv2 ) = λf (v1 ) + µf (v2 )

Observación 2.1.1 Las aplicaciones lineales transforman combinaciones lineales en


combinaciones lineales.

Proposición 2.1.2 Sea f : V −→ W. Si {v1 , ......, vn } ⊂ V son LD entonces


{f (v1 ), ...., f (vn )} ⊂ W son LD.

Proposición 2.1.3 Sea f : V −→ W inyectiva, entonces si {v1 , ......, vn } ⊂ V son


LI entonces {f (v1 ), ...., f (vn )} son LI

Definición 2.1.2 Sea f : V −→ W. Definimos el ker f como:


n o
ker f = v ∈ V / f (v) = ~0 ⊂ V

y la Im f como:

Im f = {w ∈ W / ∃v ∈ V / f (v) = w} ⊂ W

Observación 2.1.2 Los conjuntos ker f e Im f tienen estructura de espacio vectori-


al. Veámoslo: Por ejemplo consideremos dos vectores u, v ∈ ker f entonces tenemos
que ver que la suma de ambos también perteneces al ker f ; f (v + u) = f (u) + f (v) =
f (0) + f (0) = 0 por la linealidad de f podemos asegurar que (u + v) ∈ ker f. Sea ahora
λ ∈ K y v ∈ ker f tenemos que ver que λv ∈ ker f, como antes apoyándonos en el echo
de que la aplicación f es lineal tenemos que f (λv) = λf (v) = 0 entonces λv ∈ ker f.
De igual forma se demuestra que Im f tiene estructura de espacio vectorial.
10 Aplicaciones Lineales

Proposición 2.1.4 Sea f : V −→ W isomorfismo, entonces f −1 : W −→ V es un


isomorfismo.
n o
Proposición 2.1.5 Sea f : V −→ W , es inyectiva sii ker f = ~0 .

Demostración. =⇒c Sea v ∈ ker f , entonces f (v) = 0, pero f es lineal


entonces f (0) = 0 y f n
(v)o= f (0) = 0, pero al ser f inyectiva entonces v = 0.
⇐=c ker f = ~0 entonces f es inyectiva. Sean v, v0 ∈ V / f (v) = f (v 0 )
f (v 0 ) = 0, f (v − v0) = 0 lo que demuestra que v − v 0 ∈ ker f pero
entonces f (v) n− o
como ker f = ~0 entonces v = v 0 lo que demuestra la inyectividad de la aplicación.

Proposición 2.1.6 Sea f : V −→ W una aplicación lineal tal que dim V = n.


Sea BV = {v1 , ......, vn } entonces {f (v1 ), ...., f (vn )} es un sistema de generadores de
Im f ⊂ W.

Corolario 2.1.1 dim Im f ≤ dim V

Proposición 2.1.7 dim Im f = dim V ≤ dim W ⇐⇒ f es inyectiva.

Observación 2.1.3 Sea f : V −→ W isomorfismo ⇐⇒ dim W = dim V. Si dim W =


dim V y f inyectiva entonces es un isomorfismo.

Observación 2.1.4 Si f es sobre. entonces dim Im f = dim W.

Teorema 2.1.1 Isomorfismo. Sea f : V −→ W una aplicación lineal entoces:

V / ker f ≈ Im f

Demostración. Tenemos que establer una aplicación biyectiva (inyectiva


y sobre) y luego demostrar además que se trata de una aplicación lineal. Sea Sea
f : V −→ W ; xRy si f (x) = f (y)
g
V /R −→ Im f

∀x ∈ V , [x] ∈ V /R y por lo tanto g([x]) = f (x). Queremos demostrar que la


aplicación g es biyectiva y lineal.
Veamos que se trata de una aplicación. [x] = [y] =⇒ xRy entonces f (x) =
f (y) con lo que g ([x]) = g ([y]) luego g es aplicación.
Inyectiva. g ([x]) = g ([y]) ⇐⇒ [x] = [y] =⇒ xRy entonces f (x) = f (y).
Sobreyectiva. Sea z ∈ Im f =⇒ ∃x ∈ V / f (x) = z. Tomamos [x] ∈ V /R de
tal forma que g ([x]) = f (x) = z.
Veamos que V /R es V / ker f. Como ker f ⊂ V , xRy ⇐⇒ x − y ∈ ker f.
Como xRy ⇐⇒ x − y ∈ ker f ⇐⇒ f (x − y) = 0 ⇐⇒ f (x) = f (y) ⇐⇒ xRy. Luego
V /R ≡ V / ker f, donde [x] = x + ker f. Hasta ahora hemos demostrado que
g
V / (ker f ) −→ Im f
Aplicaciones Lineales. 11

es una aplicación biyectiva, veamos ahora que es lineal. Sean x, y ∈ ker f ∈ V / ker f,
∀α, β ∈ K
g(α(x + ker f ) + β(y + ker f ))
= αg(x + ker f ) + βg(y + ker f )
ya que g(α(x + ker f )) = g(αx + ker f ) = f (αx) = αf (x) i.e.
g(α(x + ker f ) + β(y + ker f )) = g((αx + βy) + ker f )
f (αx + βy) = f (αx) + f (βy) = αf (x) + βf (y)
αg(x + ker f ) + βg(y + ker f )
entonces g es biyectiva y lineal.

Observación 2.1.5
f
V - W
6

p i
?
V / ker f - Im f
f∗
i · f∗ · p = f
donde
p(x) = x + ker f
f∗ (x + ker f ) = f (x)
i(y) = y

Corolario 2.1.2
dim(V / ker f ) = dim(Im f )
dim (V ) − dim (ker f ) = dim(Im f ) =⇒
dim (V ) = dim (ker f ) + dim(Im f )

Demostración. Queremos demostrar que dim (V ) = dim (ker f )+dim(Im f )


para ello consideramos que f : V −→ W una aplicación lineal tal que dim V = n y
que como ker f ⊂ V tomamos una base de dicho subespacio Bker f = {v1 , ......, vr }
aplicando el teorema de prolongación de la base la ampliamos hasta obtener una base
de V i.e. BV = {v1 , .., vr , vr+1 , ...., vn } de tal forma que los f (vi ) = 0 ∀i = 1, ..., r
y losPf (vj ) ∀j = r + 1, ..., n Pforman base de Im f . En efecto, si v ∈ Im f =⇒ ∃
u = ai vi ∈ V / v = f (u) = ai f (vi ) además son LI ya que
n n n
!
X X X
~0 = ai f (vi ) = f ai vi =⇒ ai vi ∈ ker f
i=r+1 i=r+1 i=r+1
n
X r
X r
X n
X
ai vi = bi vi =⇒ bi vi − ai vi = ~0
i=r+1 i=1 i=1 i=r+1
i.e. sonn LI si ai , bi = 0.
12 Aplicaciones Lineales

Definición 2.1.3 Matriz de un homomorfismo. Sea f : V −→ W una aplicación lin-


eal tal que dim V = n y dim W = r y sean BV = {v1 , ......, vn } y BW = {w1 , ......, wr } .
Sean x ∈ V e y ∈ W tales que

 x = x1 v1 + ...... + xn vn
/ f (x) = y
y = y1 w1 + ....... + yr wr

además 
 f (v1 ) = a11 w1 + ...... + a1r wr

..
 . / f (x) = y
f (vn ) = an1 w1 + ...... + anr wr

entonces X
yi = aij xi
de tal forma que podemos escribir:
 
a11 · · · a1r
 .. .. ..
M(f ) =  .  ∈ Mn×r

. .
an1 · · · anr
    
y1 a11 ··· a1r x1
 ..   .. .. ..   .. 
 . = . . .  . 
yn an1 ··· anr xn

Definición 2.1.4 Matriz de la composición de aplicaciones lineales. Producto de


matrices.
f
V - W

@
@
@ g
g•f @
@
R ?
U
la composición de aplicaciones lineales es lineal.

Definición 2.1.5 Matriz inversa. Sea f : V −→ W una aplicación lineal tal que
dim V = n y dim W = n y sean BV = {v1 , ......, vn } y BW = {w1 , ......, wn } tal que
M(f ) = A ∈ Mn×n (K). Entonces la matriz de la aplicación f −1 : W −→ V está
dada por M(f −1 ) = B de tal forma que si f · f −1 = I entonces A · B = In×n

Observación 2.1.6 La fórmula de cálaculo de la matriz inversa no puede demostrarse


hasta que no se haya mostrado la teoría de determinantes.

Definición 2.1.6 Sean V, W espacios vectoriales sobre un cuerpo K. El conjunto

Hom(V, W ) = {f : V −→ W / f es apli. lineal}

tiene estructura de espacio vectorial con las siguientes operaciones:


Aplicaciones Lineales. 13

1. Ley interna. f, g ∈ Hom(V, W ) : f + g : V −→ W / x ∈ V 7−→ f (x) + g(x)


entonces f + g ∈ Hom(V, W )

2. Ley externa. f ∈ Hom(V, W ), ∀α ∈ K. (αf ) (x) = α [f (x)] i.e. (αf ) ∈


Hom(V, W )

Teorema 2.1.2 Hom(V, W ) tiene estructura de espacio vectorial.

Demostración. Simplemente definimos dos operaciones y comprobamos la


ristra de propiedades que debe verificar todo espacio vectorial.
Definimos la operación interna (+) tal que para toda f, g ∈ Hom(V, W ) :
f + g : V −→ W / x ∈ V 7−→ f (x) + g(x) entonces ¿f + g ∈ Hom(V, W )?. Vemos
que está bien definida:

(f + g) (αx + βy) = f (αx + βy) + g(αx + βy) =


α(f (x) + g(x)) + β(f (y) + g(y)) = α(f + g)(x) + β(f + g)(y)

Veamos ahora que el conjunto (Hom(V, W ), +) tiene estructura de grupo abeliano,


i.e. que verifica las propiedades

1. Asociativa: f + (g + h) = (f + g) + h.

2. Existe elemento neutro: f + f0 = f.

3. Existe elemento opuesto: f + (−f ) = 0.

4. Conmutativa: f + g = g + f.

Definimos ohora una operación externa y comprobamos que está bien definida.
f ∈ Hom(V, W ), ∀α ∈ K. (αf ) (x) = α [f (x)] i.e. (αf ) ∈ Hom(V, W ). Vemos que
esta bien definida ya que

αf [λx + µy] = αf (λx) + αf (µy) = αλf (x) + αµf (y) =


λ (αf (x)) + µ (αf (y))

comprobamos que el conjunto (Hom(V, W ), ·) verifica todas las propiedades distribu-


tivas (simpleemnte hay que marear los paréntesis):

1. α(f + g) = αf + αg

2. (α + β) f = αf + βf

3. α (βf ) = αβf

4. 1 · f = f

Con esto demostramos que el conjunto (Hom(V, W ), +, ·) tiene estructura de


espacio vectorial.

Proposición 2.1.8 dim (Hom(V, W )) = dim V · dim W


14 Aplicaciones Lineales

Teorema 2.1.3 Sea ϕ : Hom(V, W ) −→ Mn×r (K) es un isomorfismo entre espacios


vectoriales∗ .

Demostración. Tenemos que demostrar que entre dichos espacios existe una
aplicación lineal y biyectiva.
ϕ es lineal i.e. ϕ(αf + βg) = αϕ(f ) + βϕ(g) = M(αf ) + M(βg). Sea
   
a11 · · · a1p b11 · · · b1p
M(f ) =  ... .
..  . .. .
. ..  y M(g) =  .. . ..
  

ani · · · anp bni · · · bnp

p
X p
X
f (v1 ) = a1j wj , ........., f (vn ) = anj wj
j=i j=i
Xp Xp
g(v1 ) = b1j wj , ........., g(vn ) = bnj wj
j=i j=i

   
Xp Xp
(αf + βg)(vi ) = αf (vj ) + βg(vi ) = α  aij wj  + β  bij wj 
j=i j=i
p
X
(αaij + βbij ) wj
j=i

entonces
 
αa11 + βb11 · · · αa1p + βb1p
M (αf + βg) =  .. .. ..
=
 
. . .
αan1 + βbn1 · · · αanp + βbnp
= M(αf ) + M(βg)

luego ϕ(αf + βg) = αϕ(f ) + βϕ(g) = M(αf ) + M(βg) como queríamos demostrar.
Ahora tenemos que ver, que esta aplicación lineal es biyectiva i.e. inyectiva y
sobreyectiva.
Inyectiva: Sea f ∈ Hom(v, W ) y sea f 6= f0 : V −→ W tal que f0 (x) = 0
∀x ∈ V. La aplicación f : V −→ W =⇒ ∃x ∈ V / f (x) 6= ~0 i.e. ∃i ∈ {1, ...., n} /
f (vi ) 6= ~0 y  
0. · · · 0.
 .. .. 
M(f ) =  ai1 ain 


 . .
.. ..

0 ··· 0
con aij 6= 0 y f 6= f0 =⇒
 
0. · · · 0.
 .. .. 
M(f0 ) = ϕ(f0 ) = 
 0 ...

0 
0 ··· 0

Entendemos que se da por supuesto que el conjunto Mn×r (K) tiene estructura de espacio vec-
torial.
Espacio Dual. 15

de tal forma que f ∈/ ker ϕ =⇒ ker ϕ = {f0 } .


Sobre.: ϕ es sobre ya que si
 
a11 · · · a1p
 .. .. ..
A= .

. . 
ani · · · anp

tal que f : V −→ W es aplicación lineal y f (vj ) = pj=i aij wj , ∀x ∈ V x =


P P
xi vi
P
entonces f (x) = xi f (vi ), demostrando así que M(f ) = A o lo que es lo mismo
ϕ(f ) = A como queríamos demostrar.
En consecuencia existe una aplicación lineal y biyectiva (un isomorfismo) entre
dichos espacios por lo que son isomorfos.

2.2 Espacio Dual.


Definición 2.2.1 Espacio Dual.

Hom(V, K) = {f : V −→ K } := V ∗

dim V ∗ = dim V
a los elementos f ∈ V ∗ se les denomina formas lineales. Esta fórmula sólo es válida
si dim V < ∞.

Observación 2.2.1 Supongamos que BV = {v1 , ......, vn } es una base de V, que puede
escribirse de forma matricial como una matriz M ∈ Mn×1 . Sabemos que existe φ :
Hom(V, K) −→ Mn×1 que asigna a cada homomorfismo f una matriz de la forma
 
f (v1 )
f 7−→  ... 
 

f (vn )

Sea ahora la base del espacio de matrices Mn×1 formada por:


   
 1
 0  
0  ..   .. 
BMn×1 =  .  , ...........,  . 
 
0 1
 

entonces llamamos base dual de B a la base de V∗ definida por:


    

 1 0  
∗ −1  ..  −1  .. 
B = φ  .  , ..........., φ  . 
 
0 1
 

i.e.    
1 0
f1 = φ−1  ...  , ......, fn = φ−1  .. 
  
. 
0 1
de tal forma que podemos escribir

B ∗ = {f1 , ........., fn }
16 Aplicaciones Lineales

como la base del espacio dual. Las formas lineales de la base B ∗ quedan determinadas
como:
f1 (v1 ) = 1 .... .... f1 (vn ) = 0
f2 (v1 ) = 0 f2 (v2 ) = 1 ..... f2 (vn ) = 0
.. .. .. ..
. . . .
fn (v1 ) = 0 ...... .... fn (vn ) = 1
i.e.
fi (vj ) = δ ij
xi vi entonces
P
si por ejemplo x ∈ V, x =
f1 (x) = f1 (x1 v1 + .... + xn vn ) = x1 f1 (v1 ) = x1
f2 (x) = f2 (x1 v1 + .... + xn vn ) = x2 f2 (v2 ) = x2
..
.
fn (x) = fn (x1 v1 + .... + xn vn ) = xn fn (vn ) = xn

Así fi (x) es la coordenada i-ésima de x, xi por lo que podemos considerar las formas
lineales de la base dual B ∗ como las funciones coordenadas de los vectores x ∈ V
respecto de la base B.

Definición 2.2.2 Dual de un subespacio. Sea L ⊂ V entonces L∗ = Hom(L, K) *


V ∗ , i.e. no es un subespacio vectorial de V ∗ . Sea BL = {v1 , ......, vr }, podemos comple-
tar esta base a una completa de V, BV = {v1 , ...vr , vr+1 , ..., vn } . Si BL∗ = {f1 , ......, fr }
es la base dual de BL y B ∗ = {f1 , ...fr , fr+1 , ..., fn } tal que fi : L 7−→ K / fi (vj ) = δ ij .
Sea ξ : L∗ 7−→ V ∗ que manda cada fi en ξ(fi ) ⊂ V ∗ . Isomorfismo entre L∗ y
ξ(L∗ ) ⊂ V ∗ . Identificamos a ξ(L∗ ) ⊂ V ∗ como subespacio de V ∗ .

Definición 2.2.3 Ortogonalidad asociada a un subespacio dual. Sea V es un espacio


vectorial sobre un cuerpo K y V ∗ es su dual. Sea L ⊂ V , llamamos ortogonal de L
en V ∗ al conjunto
L◦ = {f ∈ V ∗ / f (x) = 0 ∀x ∈ L}

Proposición 2.2.1 L◦ ⊂ V ∗

Observación 2.2.2 Sea BL = {v1 , ......, vr } y BV = {v1 , ...vr , vr+1 , ..., vn } hemos
visto que BV∗ ∗ = {f1 , ...fr , fr+1 , ..., fn } y que BL∗ ∗ = {f1 , ......, fr } de tal forma que
L∗ ⊂ V ∗ . Las formas {fr+1 , ..., fn } forman base de L◦ . Por lo tanto V ∗ = L∗ ⊕ L◦ y
se aplica la fórmula de las dimensiones dim V ∗ = dim L∗ + dim L◦ .

2.2.1 Ecuaciones implı́citas de un subespacio.


Teorema 2.2.1 La condición necesaria y suficiente para que el vector x ∈ L es que
∀ f ∈ L◦ sea f (x) = 0

Corolario 2.2.1 Si {g1 , ...., gr } es un sistema de generadores del ortogonal L◦ de L.


los elementos x ∈ L quedan caracterizados por las relaciones:

 g1 (x) = 0

..
 .
gr (x) = 0

que denominamos ecuaciones implícitas del subespacio L.


Homomorfismo transpuesto. 17

Ejemplo 2.2.1 Sea V = R4 y K = R, el subespacio L esta generado por los sigu-


ientes vectores: 
v1 = (3, 1, 2, 1)
L :=
v2 = (2, 1, 3, 1)
si f ∈ L◦ será f (v1 ) = f (v2 ) = 0. BV = {e1 , e2 , e3 , e4 } a la forma lineal f le
corresponde una matriz  
a
 b 
M(f ) =  
 c 
d
de manera que ∀x = (x1 , x2 , x3 , x4 ) ∈ V será
 
a
 b 
f (x) = (x1 , x2 , x3 , x4 ) 
 c =0

d
entonces
f1 (v1 ) = 0 = 3a + b + 2c + d = 0
f2 (v2 ) = 0 = 2a + b + 3c + d = 0
resolviendo el sistema obtenemos:
   
1 0
 −5   −1 
M(f1 ) = 
 1 
 M(f2 ) = 
 0 

0 1
por lo tanto las ecuaciones implícitas de un subespacio vendrán dadas por:
x1 − 5x2 + x3 = 0
−x2 + x4 = 0

2.3 Homomorfismo transpuesto.


Definición 2.3.1 Homomorfismo transpuesto.
f
V - W

@
@
@ g
g•f @
@
R ?
K
donde g ∈ W ∗ , g · f ∈ V ∗ y
f t : W ∗ −→ V ∗
tal que
f t (g) = f · g
verificando las siguientes propiedades:
18 Aplicaciones Lineales

1. f, g : V −→ W, (f + g)t = f t + g t
2. (g · f )t = f t · g t
3. f : V −→ V, es un isomorfismo, entonces: f t también es isomorfismo.

Definición 2.3.2 Matriz transpuesta. En las mismas condiciones de antes: Sea


h : V −→ W BV = {v1 , ...., vn } BW = {w1 , ...., wq }
ht : W ∗ −→ V ∗ BV ∗ = {f1 , ...., fn } BW ∗ = {u1 , ...., uq }
de tal forma que
 
a11
M(h) = A = 
 aij  ∈ Mn×q

..
.
 
b11
M(ht ) = B = 
 bij  ∈ Mq×n

..
.

sabemos que ht = h · u.
n
X
t
h (uj ) = bji fi = gj · h
i=1
Pn
Sea x ∈ V / x = i=1 xi vi entonces
n
X
h(x) = yi wi
i=1
Pn
tal que yi = i=1 aij xi . Por lo tanto:
n
X
 t 
h (uj ) (x) = uj [h(x)] = yi = aij xi
i=1

por otro lado


n
X n
X
 t 
h (uj ) (x) = bji fi (x) = bji xi
i=1 i=1
observando que
n
X n
X
bji xi = aij xi
i=1 i=1
i.e.
bji = aij =⇒ M(ht ) = aji

Observación 2.3.1 Se verifica:

1. (A + B)t = At + B t
2. Si A es invertible entonces At también.
3. (At )t = A

2.4 Ejemplos.
Capı́tulo 3
DETERMINANTES Y SISTEMAS

3.1 Aplicaciones multilineales.


Llegados a este punto se puede generalizar la noción de aplicación lineal entre espacios
vectoriales y definir lo que se deniminan aplicaciones multilineles, como por ejemplo
las aplicaciones bilineales y todo lo referente a tensores y algebra tensorial, los tensores
antisimétricos y el álgebra de Grassmann etc.... Veámoslo de forma telegráfica.
Sean V1 , V2 , W espacios vectoriales y sea f : V1 × V2 −→ W una aplicación
bilineal i.e. lineal en cada una de sus variables:

f (λu + µv, w) = λf (u, w) + µf (v, w)


f (u, µv + λw) = λf (u, w) + µf (u, v)

pero podemos extender esta definición de tal forma que a tales aplicaciones las de-
nominamos multilineales.
Supongamos que w ∈ V ∗ y α ∈ W ∗ definimos la aplicación multilineal (bi-
linela)
w ⊗ α(u, v) = w(u)α(v)
denominado producto tensorial de w y α.
Las aplicaciones multilineales pueden ser multiplicadas por escalares y sumar
entre si. Lo mismo que en le caso lineal, el conjunto de funciones multilineales

L(V1 , ....., Vr ; W )

tiene estructura de espacio vectorial.


Consideremos ahora la siguiente aplicación bilineal:

Definición 3.1.1 Espacio Bidual V ∗∗ . Sea (V, K) un espacio vectorial de dimen-


sión finita i.e. (dim V < ∞). Consideramos la aplicación bilineal

h·, ·i : V ∗ × V −→ K
(ω, v) 7−→ hω, vi = ω(v)
Si fijamos v ∈ V , entonces la aplicación
h·, vi : V ∗ −→ K
ω 7−→ hω, vi
que es lineal y por lo tanto un elemento de V ∗∗ .
La aplicación
ϕ : V −→ V ∗∗
u 7−→ h·, ui
es un isomorfismo.
20 Determinantes y Sistemas

Podemos ahora definir el concepto de Espacio Tensorial. Definimos la apli-


cación multilineal que denominamos tensor:
s
z }| {
Tsr ... ⊗ V} ⊗ V ∗ ⊗ ... ⊗ V ∗ 7−→ W
: |V ⊗ {z
r

r covariante y s contravariante.
Definimos el producto tensorial de dos tensores A ∈ Tsr y B ∈ Tnt como:
r+t
A ⊗ B ∈ Ts+n

definido como una función sobre (V ∗ )r+t × (V )s+n mediante

A⊗B ω 1 , ..., ω r+t , v1 , .., vs+n = A(ω 1 , ..., ω r , v1 , .., vs )B(ω r+1 , ..., ω t+r , vs+1 , ...., vn+s )


Observación 3.1.1 Sobre la notación:

• las ω deben llevar el índice arriba, superíndice.

• las v deben llevar el índice abajo, subíndice.

Este producto tensorial verifica trivialmente las leyes asociative y distributiva.

Teorema 3.1.1 Un tensor estás determinado por su vlaor sobre una base y su dual
(i.e. es localizable). Estos vlaores son las componentes de un tensor con respecto al
productotensorial de los elementos de las bases y ssu duales las cuales formana base
del espacio vectorial.

Observación 3.1.2 Sea BV = {e1 , ...., es } y BV ∗ = ω 1 , ....., ω r y sea A ∈ Tsr




entonces
A = Aij11,......,ir j1
,......,js ei1 ⊗ ...... ⊗ eir ⊗ ω ⊗ ...... ⊗ ω
js

Corolario 3.1.1
dim (Tsr ) = r + s

3.1.1 Tensores simétricos.


Un tensor A es simétrico en sus índices p y q si las componentes con respecto a toda
base no cambian cuando estos índices seintercambian. Un tensor A es simétrico en sus
(p, q) variables si el valor como función multilineal no cambia cuando estas variables
se intercambian.

Teorema 3.1.2 Son equilavelentes:

1. A es simétrico en los índices (p, q) ,

2. A es simétrico en las (p, q) variables,

3. las componentes de A con respecto a una base no cambian cuando se cambian


los índices (p, q) .
Determinantes. 21

3.1.2 Tensores antisimétricos.


La noción de tansor antisimétrico es análoga a la de tensor simétrico sólo que aquí
al intercambiar índices o variables el tensor resultante es igual al tensor sólo que con
signo negativo (i.e. le cambia el signo).

Teorema 3.1.3 Son equilavelentes:

1. A es antisimétrico en los índices (p, q) ,


2. A es antisimétrico en las (p, q) variables,
3. las componentes de A con respecto a una base cambian de signo.

Teorema 3.1.4 A es antisimétrico sii ∀ α ∈ V ∗

A(ω 1 , .., α, ...., τ , ...., ω r , v1 , .., vs ) = 0

∀ ω i , α ∈ V ∗ y vi ∈ V.

3.1.3 Álgebra exterior.


Lo análogo de la multiplicación de tensores simétricos para antisimétricos se denomina
producto esterior (o alternante, o Grassmann o wedge) y el álgebra resultante se
denomina exterior o de Grassmann. El símbolo para este producto es ∧ y el espacio
de formas antisimétricas de tipo (0, s) se denota por Λs (V ∗ ).
Definimos el operador alternador: A −→ An como una aplicación lineal

Ts0 −→ Λs (V ∗ ) ∀s

que asigna a cada tensor su parte antisimétrica ∀ {v1 , ....., vs } ∈ V definimos:


1 X
An (v1 , .., vs ) = sgn(i1 , ...., is )A(v1 , .., vs )
s!
i1 ,....,is

para todas las s!-permutaciones de (1, ...., s) .


Entonces el producto exterior se define como:

A ∧ B = (A ⊗ B)a

verificando las leyes (asociativa, anticonmutativa y distributiva).

3.2 Determinantes.
3.2.1 Permutaciones de orden n.
Definición 3.2.1 Llamamos permutación de orden n a toda aplicación biyectiva σ
de un conjunto de n elementos A = {a1 , ....., an } sobre si mismo, i.e. σ : A −→ A.
Al conjunto de todas las permutaciones lo denotamos por Sn .

Un elemento j ∈ A es un elemento fijo por una permutación σ ∈ Sn si σ(j) = j.


Cuando j ∈ A es un elemento fijo de la permutación σ, la sucesión

j, σ(j), σ 2 (j), ....., σ r (j)

es finita por serlo el comjunto A; por lo tanto ∃ un elemento de la misma, σ k (j) con
k ≥ 0 que coincide con alguno de los anteriores.
22 Determinantes y Sistemas

Proposición 3.2.1 Si es r = max k / σ k (j) 6= σ h (j); 0 ≤ h ≤ k entonces σ r+1 (j) =




j.

Dados los elementos distintos de A = j, σ(j), σ 2 (j), ....., σ r (j) / σ r+1 (j) = j


decimos que σ es un ciclo de orden r si deja fijos los elementos de A que aparecen en
la sucesión anterior. Designamos tal permutación como:

σ = j, σ(j), σ 2 (j), ....., σ r (j)




Proposición 3.2.2 Toda permutación σ de Sn distinta de la identidad puede de-


scomponerse como producto de ciclos.

Decimos que una transposición es un ciclo de orden 2. Observamos que todo


ciclo σ puede descomponerse como producto de transposiciones.

Proposición 3.2.3 Toda permutación σ de Sn puede descomponerse como producto


de transposiciones (de forma no única).

Corolario 3.2.1 Si σ ∈ Sn y τ r .....τ 2 τ 1 = ρs .....ρ1 son dos descomposiciones de σ


como producto de transposiciones, r + s es un número par.

Como consecuencia de este último corolario podemos concluir que el número


de factores de cualquier descomposición de una permutación Sn tiene siempre la
misma parida. Esto nos permite clasificar las permutaciones de orden n en dos
clases: pares, aquellas que se descomponen en el producto de un número par de
transposiciones e impares como las las que tienen un número impar.
Definimos el signo de la permutación σ ∈ Sn como el número ε(σ) determinado
conforme al siguiente criterio:

• ε(σ) = +1 si σ es par,

• ε(σ) = −1 si σ es impar.

Si σ es un ciclo de orden r, entonces ε(σ) = (−1)r−1 .


3.2.2 Determinantes.
3.2.3 Formas n−lienales alternadas.
Sea V un esapcio vectorial / dim V = n sobre K. Una aplicación
n−veces
z }| {
D : V × ..... × V −→ K

es una forma n−lineal alternada definida sobre V si cumple:

1. D (a1 , ..., λai , ....., an ) = λD (a1 , ........, an )

2. D (a1 , ..., ai + a0i ....., an ) = D (a1 , ...., ai , ...., an ) + D (a1 , ...., a0i , ...., an )

3. D (a1 , ...., ai , ...., an ) = 0 ⇐⇒ ai = aj con i 6= j.

Las dos primeras dicen que la forma es multilineal y la 3 que es alternada.


Determinantes. 23

3.2.4 Propiedades de las formas n-lineales alternadas.


1. Dada una transposición (i, j) se Sn entonces:

D (a1 , ...., ai , ., aj ..., an ) = −D (a1 , ..., aj , ., ai , ...., an )

2. Si ai = 0
D (a1 , ...., ai , ...., an ) = 0

3. ∀ σ ∈ Sn 
D aσ(1) , ........, aσ(n) = ε (σ) D (a1 , ......., an )

4. si {a1 , ......., an } son LD entonces

D (a1 , ......., an ) = 0

5. D (a1 , ......., an ) no varía si se le suma a un ai una combinación lineal de los


restantes.

3.2.5 Expresión analítica de una forma n-lineal alternada.


Sea BV = {e1 , ...., en } /
x1 = a11 e1 + ..... + a1n en
..
.
xn = an1 e1 + ..... + ann en

X 
D (x1 , ......., xn ) = a1σ(1) ........anσ(n) · D eσ(1) , ........, eσ(n) =
σ∈Sn
X
D(e1 , ...., en ) ε (σ) a1σ(1) ........anσ(n)
σ∈Sn

3.2.6 Determinante de un sistema de vectores.


Sea (V, K) y BV = {e1 , ...., en } , llamamos determinante de los vectores {x1 , ...., xn } ∈
V a la expresión
X
det (x1 , ......., xn ) = ε (σ) a1σ(1) ........anσ(n)
B
σ∈Sn

se desprende de la definición que ∀ D forma n-lineal definida en V,

D (x1 , ......., xn ) = D(e1 , ...., en ) det (x1 , ......., xn )


B

Proposición 3.2.4 Sea BV = {e1 , ...., en } y sea k ∈ K entonces ∃! D en V /


D(e1 , ...., en ) = k.

Proposición 3.2.5 Sea BV = {e1 , ...., en } y sea BV0 = {u1 , ...., un } entonces para
todo conjunto de vectores {x1 , ...., xn } ∈ V se tiene:

det
0
(x1 , ......., xn ) = det (x1 , ......., xn ) det
0
(e1 , ...., en )
B B B
24 Determinantes y Sistemas

Proposición 3.2.6 Si D es una forma n-lineal alternada definida en V y existe


BV = {e1 , ...., en } tal que D(e1 , ...., en ) 6= 0 para cualquier otra base BV0 = {u1 , ...., un }
se tiene que D(u1 , ...., un ) 6= 0.

Proposición 3.2.7 Si D es una forma n-lineal alternada definida en V no identi-


camente nula entonces para cualquier otra forma D0 ∃ λ ∈ K / ∀ (x1 , ......., xn )

D0 (x1 , ......., xn ) = λD (x1 , ......., xn )

Proposición 3.2.8 Los vectores (a1 , ........, an ) son linealmente independientes si y


solo si ∀ BV
det (a1 , ........, an ) 6= 0
B

3.2.7 Determinante de una matriz cuadrada.


Consideramos el conjunto de matrices cuadradas Mn×n (K) en el cuerpo K,
 
a11 · · · a1n
A =  ... .. .
. ..
 

an1 · · · ann

tomamos la base canónica de V i.e. BV = {e1 , ...., en } de tal forma que

x1 = a11 e1 + ..... + a1n en


..
.
xn = an1 e1 + ..... + ann en

queremos asociar a cada elemento A ∈ Mn×n (K) un número a ∈ K que denominare-


mos su determinante. A = (aij ) entonces

det A = det (x1 , ......., xn ) i.e.


B
X
det A = ε (σ) a1σ(1) ........anσ(n)
σ∈Sn
det A = |aij |

como antes hemos identificado mediante un isomorfismo a cada endomorfismo con su


matriz, entoces hablar del determiante de un endomorfismo se reduce a hablar del
determinnate de su matriz.

Proposición 3.2.9 det A = det At

3.2.8 Determinante de un endomorfismo.


Sea f un endomorfismo en V (etc....). Si D es una forma n-lineal alternada V no
idénticamente nula, entonces la aplicación

Df : V × ....... × V −→ K
(x1 , ......., xn ) 7−→ D(f (x1 ), ...., f (xn ))

es también una forma n-lineal alternada definida en V .


Como hemos visto antes
Df = λD
Determinantes. 25

Proposición 3.2.10 El escalar λ es independiente de la forma n-linela alternada D.

El escalar λ está determinado de manera única por el endomorfismo f que


recibe el nombre de det f = λ, entonces

Df = det f D

i.e.
D [f (x1 ), ...., f (xn )] = det f D (x1 , ......., xn )
∀ BV = {e1 , ...., en } se verifica:

det f = det [f (x1 ), ...., f (xn )]


B

Sea ahora BV = {e1 , ...., en } y si f ∈ End(V ) / M (f, BV ) = (aij ) entonces ∀ j =


1, 2, .., n
n
X
f (ej ) = aij ei
i=1
entonces
det f = det [f (x1 ), ...., f (xn )]
B

det f = det A

Proposición 3.2.11 El determinante de f ∈ End(V ) coincide con el determinante


de su matriz asociada con respecto de cualquier base.

Proposición 3.2.12 Todas las matrices asociadas a un mismo endomorfismo tienen


el mismo determinante.

Proposición 3.2.13 Un endomorfismo f es automorfismo sii det f 6= 0.

Proposición 3.2.14 Sean f, g ∈ End(V ) entonces:

1. det(f · g) = det(f ) det(g) =⇒ det(AB) = det(A) det(B)

2. det(I) = 1

3. f automorfismo, entonces det(f −1 ) = [det(f )]−1 =⇒ det A−1 = (det A)−1 .

3.2.9 Rango de una matriz.


Sea A = (aij ) ∈ Mn×p (K). Sean los vectores columna

a11 e1 + ..... + ap1 ep = b1


..
.
a1n e1 + ..... + apn ep = bn

Definición 3.2.2 Llamamos rango de A al número de vectores columna de A con


determinante distinto de cero i.e. que son LI

rg(A) = dim [l (b1 , ....., bp )]


26 Determinantes y Sistemas

Llamamos menor de una matriz arbitraria A a toda matriz cuadrada obtenida


a partir de A suprimiendo filas y columnas de la misma.

Proposición 3.2.15 El rango de A es el máximo de los órdenes de los menores de


A con determinante distinto de cero.

Proposición 3.2.16 rangA = al mayor número de vectroes fila LI.

Proposición 3.2.17 Sea f ∈ End(V ) y sea A = M (f, B) entonces

rg (A) = dim(Im f )

3.2.10 Matriz inversa.


Sea A = (aij ) ∈ Mn×n (K). Para cada i, j ∈ (1, .., n) consideramos la matriz
 
a11 · · · a1j · · · a1n
 .. .. .. 
 . . . 
 
 0
Cij =  ··· 1 ··· 0  
 .. .. .. 
 . . . 
an1 · · · anj · · · ann

llamamos menor adjunto de aij al elemento de K

αij = det(Cij )

y matriz adjunta de A a la matriz

ad(A) = (αij )

i.e. la matriz adjunta de una matriz cuadrada A es la matriz transpuesta de la matriz


cuyos términos son los menores adjuntos de los elementos de A.

Proposición 3.2.18 Matriz inversa.

Ct
A−1 =
det A
donde C t es el menor de orden n − 1 × n − 1

Ejemplo 3.2.1 Sea


   d b 
a b −1 ad−bc − ad−bc
A= =⇒ A = c a
c d − ad−bc ad−bc

y sea
   
a b c ie − f h −ib + ch bf − ce
1 
B =  d e f  =⇒ B −1 = −id + f g ia − cg −af + cd 
det B
g h i dh − eg −ah + bg ae − bd
Sistemas lineales. 27

3.3 Sistemas lineales.


Definición 3.3.1 Sea (V, K) / dim V = n y sea BV = {e1 , ......, en }. Sean {e1 , ......, en }
y {~a1 , ......, ~an } ⊂ V / ~ai = (ai1 , ......, ain ). El número máximo de vectores LI es el
rango de los {~a1 , ......, ~ak } = dim [L ({~a1 , ......, ~ak })] . Sea
 
a11 · · · a1n
A =  ... . . ..  rangA = rang {~a1 , ......, ~ak }
 
. .
an1 · · · ann

Proposición 3.3.1 Dada la matriz A, el rangA es igual al mayor orden de los


menores con det 6= 0.

Teorema 3.3.1 Rouché-Frobenious. Sean (V, K) / dim V = n y {~a1 , ......, ~ar } ∈ V

v ∈ L (~a1 , ......, ~ar ) ⇐⇒ v(~a1 , ......, ~ar ) = v(~a1 , ......, ~ar , ~v )

Consecuencias: Sea el sistema


a11 x1 + ..... + a1n xn = b1 a1 = (a11 , ......, a1n )
.. ..
. . ~v = (b1 , ...., bn )
an1 x1 + ..... + ann xn = bn an = (an1 , ......, ann )

decimos que el sistema es incompatible (no tiene solución) sii ~v ∈


/ L (~a1 , ......, ~ar ) ⇐⇒
rangA 6= rangB donde
   
a11 · · · a1n a11 · · · a1n b1
A =  ... .
..  . .. . .. 
. ..  y B =  .. . ..
 
. 
an1 · · · ann an1 · · · ann bn
el sistema
a11 x1 + ..... + a1n xn = b1
..
.
an1 x1 + ..... + ann xn = bn
es compatible sii ~v ∈ L (~a1 , ......, ~ar ) ⇐⇒ rangA = rangB.

Observación 3.3.1 Si rangA es máximo e igual a la dimensión de V entonces el


sistema es compatible determinado (existe una única solución).
Si rangA es menor que la dimensión del espacio entonces el sistema es com-
patible pero existen muchas soluciones.

Otro punto de vista es el siguiente: Consideremos el sistema


a11 x1 + ..... + a1n xn = b1
.. (3.1)
.
an1 x1 + ..... + ann xn = bn
que podemos reescribir de la forma
    
a11 · · · a1n x1 b1
 .. .. .   ..   .. 
 . . ..  .  =  . 
an1 · · · ann xn bn
28 Determinantes y Sistemas

P
la solución del sistema es un conjunto de escalares (α1 , ......, αn ) / aij αj = bj . Sea
ahora f : V −→ W tal que dim V = n y dim W = p tal que BV = {e1 , ......, en } y
BW = {u1 , ......, up } tal que
 
a11 · · · a1n
M(f, BV ) =  ... .. .
. ..
 

an1 · · · ann

las ecuaciones de f respecto de BV son


 P

 i a1i xi = y1
..
 .
 P
i api xi = yp

Teorema 3.3.2 Rouche-Frobenious. El sistema de ecuaciones lineales tiene solu-


ciones sii el vector X
b= bi ui ∈ Im f
i

Observación 3.3.2 Teniendo en cuenta que los vectores {f (ei )}ni=1 constituyen un
sistema de generadores de Im f y puesto que dim [Im f ] = rangA si llamamos B a la
matriz ampliada, entonces el toerema de R-F dice:

Corolario 3.3.1 ∃! solución si rangA = rangB.

Observación 3.3.3 Las ecuaciones del sistema homogéneo representan las ecua-
ciones del ker f . Si el sistema es compatible, el conjunto de sus soluciones es el
conjunto f −1 (b) i.e. las soluciones del sistema (3.1) constityen en virtud del teorema
de isomorfía una clase de equivalencia de V respecto del subespacio ker f de man-
era que si (α1 , ......, αn ) es una solución concreta de (3.1) el conjunto de todas las
soluciones del sistema es:

[(α1 , ......, αn ) + ker f ] ∈ (V / ker f )

por lo tanto las soluciones del sistema (3.1) se obtiene sumando a una solución par-
ticualr del mismo el conjunto de todos los vectores de ker f , o lo que es lo mismo, el
conjunto de todas las soluciones del sistema homogéneo asociado a (3.1). Sabemos
que dim Im f = rangA entonces dim ker f = n − rangA.

Proposición 3.3.2 Si el sistema es compatible entonces si

rangA = n determinado
rangA < n indeterminado

Proposición 3.3.3 Regla de Cramer. Sistema en el que el número de ecuaciones


coincide con el de incógnitas / det A 6= 0.
Sea
(aij )n×n · (xi ) = (bj )
como det A 6= 0 entonces ∃ A−1 /

xi = A−1 · bj
Ejemplos. 29

i.e.     
x1 α11 ··· αn1 b1
 ..  1  .. .. .. .. 
 . =

. . . . 
det A
 
xn α1n ··· αnn bn
i.e.
 
b1 a12 · · · a1n
det  ... ..
 
. 
bn a2n · · · ann
x1 = ,
det A
..
.
 
a11 · · · a1n−1 b1
det  ... .. 

. 
an1 · · · ann−1 bn
x1 =
det A

Ejemplo 3.3.1 Resolver el sistema

x+y+z =4
2x − y + z = 3
x − y − z = −2

Sea
   
1 1 1 1 1 1 4
c =  2 −1 1  y A =  2 −1 1 3 
1 −1 −1 1 −1 −1 −2

como det C = |C| = 4 entonces rangC = rangA por lo tanto



4 1 1 4 1 1 4 1 1

3 −1 1
3 2 −1
3 2 1


−2 −1 1 −2 1 −1 −2 1 −1
x= , y= , z=
4 4 4

3.4 Ejemplos.
Ejemplo 3.4.1 Sea V / dim V = 3 y sea f ∈ End(V ) de tal forma que
 
1 2 3
M (f, BV ) =  −1 1 2 
0 0 −1

y L un subespacio vectorial engendrado por los vectores u, v / L = L(u, v) siendo


u = (1, 2, 1) y v = (1, −1, 1) respecto de la base BV . Queremos hallar f (L) y f −1 (L).
¿Es f 2 : f −1 (L) −→ L un isomorfismo?
30 Determinantes y Sistemas

Solución.
En primer lugar vamos a calcular las ecuaciones implícitas del subespacio L,
estas son:

x y z
L ≡ 1 2 1 = x − z = 0
1 −1 1
Observación 3.4.1 Podemos pensar de forma intuitiva en que estos dos vectores
generan un plano cuya ecuación es:
~n = (u ∧ v) = (1, 0, −1) =⇒ x − z = 0

Las ecuaciones de f son:


 0    
x 1 2 3 x
 y 0  =  −1 1 2   y 
z 0 0 0 −1 z
o lo que es lo mismo
x0
   
x + 2y + 3z
 y 0  =  −x + y + 2z 
z0 −z
f (ω) ∈ L ⇐⇒ ω ∈ f −1 (L)
por lo tanto
f (ω) ∈ L ⇐⇒ (x + 2y + 3z, −x + y + 2z, −z)
de tal forma que este vector ha de verificar las ecuaciones de L i.e. x − z = 0 por lo
tanto
x + 2y + 3z − (−z) = 0 ⇐⇒ x + 2y + 4z = 0
entonces las ecuaciones implícitas de f −1 (L) son:
x + 2y + 4z = 0

Observación 3.4.2 Darse cuenta de que


  
1 2 3 x
(1, 0, −1)  −1 1 2   y  = x + 2y + 4z = 0
0 0 −1 z

f (L) estará generada por {f (u), f (v)} donde f (u) = (8, 3, 1) y f (v) = (2, 0, −1)
por lo tanto

x y z

f (L) = 8 3 −1 = 0 =⇒

2 0 −1
f (L) ≡ x − 2y + 2z = 0
Por último como f es biyectiva entonces es un isomorfismo (det M (f, BV ) 6= 0) en-
tonces f · f = f 2 es un isomorfismo
f 2 (f −1 (L)) = f (L)
es un isomorfismo.
Ejemplos. 31

Ejemplo 3.4.2 Sea f : R3 −→ R4 tal que


 0   
x 1 2 5  
 y 0   −2 −1 −1  x
 z 0  =  1 −1 −4  y
    .
z
t0 5 1 −2
Determinar f −1 (L) si:
1. L = (x, y, z, t) ∈ R4 / ax + by + cz + dt = 0


2. L = L {(1, 0, −1, −1) , (1, −1, 0, 2)}


Solución.
Como en el ejemplo anterior. Sea ω = (x, y, z) entonces
f (w) = [(x + 2y + 5z) , (−2x − y − z) , (x − y − 4z) , (5x + y − 2z)]
que debe satisfacer las ecuaciones de L i.e. ax + by + cz + dt = 0 ⇐⇒
a (x + 2y + 5z) + b (−2x − y − z) + c (x − y − 4z) + d (5x + y − 2z) = 0
despejando x, y, z se obtiene:
(a − 2b + c + 5d) x + (2a − b − c + d) y + (5a − b − 4c − 2d) z = 0
i.e.  
1 2 5  
 −2 −1 −1  x
 1 −1 −4  y
(a, b, c, d)    = 0
z
5 1 −2
En el segundo caso operamos de la siguiente manera (siguiendo el ejemplo de
la teoría)    
1 1
 0   −1 
(a, b, c, d)   = 0,
 −1  (a, b, c, d)  0 =0
 

−1 2
entonces
BL◦ = {(1, 1, 1, 0) , (1, 3, 0, 1)}
así 
x+y+z =0
L≡
x + 3y + t = 0
entonces como en el caso (1) será:
 
1 2 5    
 x
 
1 1 1 0   −2 −1 −1   y  = 0
1 3 0 1  1 −1 −4  0
z
5 1 −2
 
  x  
0 0 0   0
y =
0 0 0 0
z
obteniéndose que f −1 (L) ≡ R3 .
32 Determinantes y Sistemas

Ejemplo 3.4.3 Sea f : R4 −→ R4 tal que


 
1 3 1 −2
 0 2 2 1 
A = M (f, BV ) =  
 2 4 0 −5 
−1 −1 1 3

calcular:

1. Bases de ker f, Im f, R4 / ker f

2. Ec. implícitas de Im f

3. Ec. del isomorfsmo canónico.

Solución.
Calculamos el rango de la matriz A siendo rangA = 2 por lo tanto dim Im f =
dim ker f = 2. Las ecuaciones del ker f son:


 x + 3y + z − 2t = 0
2y + 2z + t = 0

ker f := =⇒ Bker f = {(2, −1, 1, 0) , (7, 1, 0, 2)}

 2x + 4y − 5t = 0
−x − y + z + 3t = 0

y una base de Im f puede ser:

BIm f = {(1, 0, 2, −1) , (3, 2, 4, −1)}

de esta forma obtenemos que

BR4 / ker f = {(e1 + ker f ) , (e2 + ker f )} .

Las ecuaciones implícitas de Im f son:

BIm f = {(1, 0, 2, −1) , (3, 2, 4, −1)}




 y1 = α + 3β
y2 = 2β

Im f := =⇒

 y 3 = 2α + 4β
y4 = −α − β

 
 y1 1 3 y1
1 3

y2 0 2 = 0, y2 0 2 = 0 =⇒

y4 −1 −1

y3 2 4


−2y1 + y2 + y3 = 0
Im f :=
y1 − y2 + y4 = 0
Veamos otro método de calcular las ecuaciones de Im f.

Sea L = Im f y L◦ ⊂ R4 ; h ∈ L◦ ⇐⇒ h(x) = 0 ∀ x ∈ L

  
 a = −2λ + µ
h(v1 ) = 0 a + 2c − d = 0 b=λ−µ

=⇒ =⇒
h(v2 ) = 0 3a + 2b + 4c − d = 0 
 c=λ
d=µ

Ejemplos. 33

recordamos que BIm f = {(1, 0, 2, −1) , (3, 2, 4, −1)}

=⇒ BL◦ = {(−2, 1, 1, 0) , (1, −1, 0, 1)}

por lo tanto las ecuaciones implícitas de L son:



−2x + y + z = 0
L :=
x−y+t=0
Por último calcularemos las ecuaciones canónicas. Recordamos el gráfico
f - 4
R4 R
6

p i
?
4
R / ker f - Im f
f∗
como BR4 / ker f = {(e1 + ker f ) , (e2 + ker f )} entonces calculamos

{f∗ (e1 + ker f ) , f∗ (e2 + ker f )}

f∗ (e1 + ker f ) = f∗ (e1 ) = (1, 0, 2, −1) = y1


f∗ (e2 + ker f ) = f∗ (e2 ) = (3, 2, 4, −1) = y2

por lo tanto    
1 0 α β
M (f∗ ) = =
0 1 α0 β 0
ya que

y1 = αy1 + βy2
y2 = α 0 y 1 + β 0 y 2

como queríamos ver.

Ejemplo 3.4.4 Mismo enunciado que el anterior para:


 
3 4 x1 + x3 x2 − 2x3
f : R −→ R / f (x1 , x2 , x3 ) =
2x1 + x2 x1 + x3

Solución.
Calculamos la matriz M (f, BV ) donde BV = {e1 , e2 , e3 }

f (1, 0, 0) = (1, 0, 2, 1)
f (0, 1, 0) = (0, 1, 1, 0)
f (0, 0, 1) = (1, −2, 0, 1)

entonces  
1 0 2 1
M (f, BV ) =  0 1 1 0 
1 −2 0 1
34 Determinantes y Sistemas

cuyo rango es 2 por lo tanto dim Im f = 2. Una base de Im f puede ser:

BIm f = {(1, 0, 2, 1) , (0, 1, 1, 0)}

y dim ker f = 1 (recordamos que dim V = dim ker f + dim Im f ). Las ecuaciones del
ker f son:


 x+z =0
y − 2z =0

ker f := =⇒ Bker f = {(−1, 2, 1)}

 2x + y =0
x+z =0

de esta forma obtenemos una base de V como:

BV = {(−1, 2, 1) , (1, 0, 0) , (0, 1, 0)}

y
BV / ker f = {(1, 0, 0) + ker f, (0, 1, 0) + ker f }

las ecuaciones del isomorfismo canónico son:

f∗ (e1 + ker f ) = f∗ (e1 ) = (1, 0, 2, 1) = y1


f∗ (e2 + ker f ) = f∗ (e2 ) = (0, 1, 1, 0) = y2

por lo tanto
   
1 0 α β
M (f∗ ) = =
0 1 α0 β 0
ya que

y1 = αy1 + βy2
y 2 = α 0 y 1 + β 0 y2

como querı́amos ver.

Ejemplo 3.4.5 Sea f : R4 −→ R4 tal que


 
1 2 2 −3
 −2 1 −4 6 
A = M (f, BV ) = 
 3 −1

3 −9 
−1 2 −1 3

calcular:

1. Bases de ker f, Im f, R4 / ker f

2. Ec. implícitas de Im f

3. Ec. del isomorfsmo canónico.


Ejemplos. 35

Solución.
Calculamos el rango de la matriz A siendo rangA = 3 por lo tanto dim ker f =
1. Las ecuaciones del ker f son:

x + 2y + 2z − 3t = 0 

−2x + y − 4z + 6t = 0

=⇒ Bker f = {(3, 0, 0, 1)}
3x − y + 3z − 9t = 0 

−x + 2y − z + 3t = 0

mientras que una base de Im f es:

BIm f = {(1, −2, 3, −1) , (2, 1, −1, 2) , (2, −4, 3, −1)}

las ecuaciones implicitas de Im f son:



1 2 2 x

−2 1 −4 y

3 −1 = −3t − z + y + 2x = 0
3 z
−1 2 −1 t

Por último calcularemos las ecuaciones canónicas. Recordamos el gráfico

f - 4
R4 R
6

p i
?
R4 / ker f - Im f
f∗

como BR4 / ker f = {(e1 + ker f ) , (e2 + ker f ) , (e3 + ker f )} entonces calculamos

{f∗ (e1 + ker f ) , f∗ (e2 + ker f ) , (e3 + ker f )}

f∗ (e1 + ker f ) = f∗ (e1 ) = (1, −2, 3, −1) = y1


f∗ (e2 + ker f ) = f∗ (e2 ) = (2, 1, −1, 2) = y2
f∗ (e3 + ker f ) = f∗ (e3 ) = (2, −4, 3, −1) = y3

por lo tanto (como en los ejemplos anteriores)


 
1 0 0
M (f∗ , B) =  0 1 0 
0 0 1

la matriz de la aplicación p : R4 −→ R4 /ker f es:


 
1 0 0 0
M (p, B) =  0 1 0 0 
0 0 1 0
36 Determinantes y Sistemas

y la matriz de la inclusión i : Im f −→ R4 es:


 
1 2 2
 −2 1 −4 
M (i, B) = 
 3 −1

2 
−1 2 −1
viendo ası́ que el tema carrula bien.

Ejemplo 3.4.6 Sea f : R3 −→ R3 / f (x, y, z) = (x + y, x + z, y − z) . Queremos


encontrar bases de ker f, Im f y R3 / ker f respecto de las cuales las matrices de las
aplicaciones p, f∗ e i sean diagonales.

Solución.
De forma rápida vemos que:

f (e1 ) = (1, 1, 0) , f (e2 ) = (1, 0, 1) , f (e3 ) = (0, 1, −1)

así pues:  
1 1 0
M (f, B) =  1 0 1 
0 1 −1
cuyo rango es 2 como facilmete se puede comprobar. Las ecuaciones del ker f son:

x + y = 0,
x + z = 0,
y−z =0

por lo que una base es:

Bker f = {(1, −1, −1)} ,


BR3 = {(1, 0, 0) , (0, 1, 0) , (1, −1, −1)} ,
BIm f = {(1, 1, 0) , (1, 0, 1)} ,
BR3 / ker f = {(e1 + ker f ) , (e2 + ker f )}

unas ecuaciones de Im f son:



x y z

1 1 0 =x−y−z =0

1 0 1

Las expresiones de las aplicaciones p, f∗ e i son:


 
1 0 0
p(ei ) =
0 1 0
 
1 0
f∗ (ei ) =
0 1
 
1 0
i(ei ) =  0 1 
0 0
Ejemplos. 37

de tal forma que  


1 0 0
i · f∗ · p =  0 1 0 
0 0 0
Observación 3.4.3 se puede comprobar que la matriz diagonal de A es precisamenete
la resultante de i · f∗ · p
   
1 1 0 0 √0 0
 1 0 1 ≈ 0 3 √0

0 1 −1 0 0 − 3
y como se estudiará en capı́tulos posteriores al ser A simétrica entonces siempre
podemos encontrar una base respecto de la cual sea diagonal con ±1 y 0 en ella.

Ejemplo 3.4.7 Dadas las formas lineales sobre R3


f1 (x, y, z) = x + 2y − 3z
f2 (x, y, z) = 2x + 3y − 4z
f3 (x, y, z) = 2x − 2y + z
queremos probar que B ∗ = {f1 , f2 , f3 } forma base del dual y hallar una base B 0 de
R3 tal que (B 0 )∗ = B ∗ .

Solución.
Sea B = {e1 , e2 , e3 } base de R3 y sea B ∗ = {e∗1 , e∗2 , e∗3 } su base dual puesto
que
fi = fi (e1 )e∗1 + fi (e2 )e∗2 + fi (e3 )e∗3 con i = 1, 2, 3
resulta que la matriz de coordenadas por columnas, de los fi respecto a B ∗ es
 
1 2 2
Q= 2 3 −1 
−3 −4 1
como det Q 6= 0 entonces {f1 , f2 , f3 } son LI y por lo tanto forman base.
Respecto al segundo apartado vemos que la matriz de base de B ∗ a B 0 es Q
 
t 1 −1 1 1
Q−1 =  −10 7 −2 
3
−8 5 −1
si C = {u1 , u2 , u3 }
1 1 1
u1 = − e1 + e2 + e3
3 3 3
10 7 2
u2 = − e1 + e2 − e3
3 3 3
8 5 1
u3 = − e1 + e2 − e3
3 3 3
38 Determinantes y Sistemas

Ejemplo 3.4.8 Sea V un R−espacio vectorial. B = {e1 , e2 , e3 } es una base y sea


C = {u1 , u2 , u3 } tal que

u1 = 2e1 + e3
u2 = 3e3
u3 = e2 − e3

demostrar que:

1. C es base de V.

2. Hallar las ec del cambio de B a C,

3. Hallar las ec del cambio de B ∗ a C ∗ ,

4. Obtener coordenadas de 3e∗1 + e∗2 − e∗3 respecto de C ∗ .

Solución.
En primer lugar comprobamos que
 
2 0 0
det A = det  0 0 1  6= 0 =⇒ LI i.e. forman base.
1 3 −1

la matriz de cambio de base de B a C es


 0    
x 2 0 0 x
 y0  =  0 0 1   y 
z0 1 3 −1 z
B C

Las ecuaciones de cambio de B ∗ a C ∗ son:


 0   −1 t  
x 2 0 0 x
 y0  =   0 0
 1  y
  

z0 1 3 −1 z

x0
   1 1
 
2 −6 0 x
 y0  =  0 1
1   y 
3
z 0 0 1
0 z
3

Por último las coordenadas de u∗ = 3e∗1 + e∗2 − e∗3 respecto de C ∗ son:

u∗ (u1 ) = 3e∗1 (u1 ) + e∗2 (u1 ) − e∗3 (u1 )


u∗ (u2 ) = 3e∗1 (u2 ) + e∗2 (u2 ) − e∗3 (u2 )
u∗ (u3 ) = 3e∗1 (u3 ) + e∗2 (u3 ) − e∗3 (u3 )

entonces como
u1 = 2e1 + e3
u2 = 3e3
u3 = e2 − e3
Ejemplos. 39

vemos que

u∗ (u1 ) = 3e∗1 (2e1 + e3 ) + e∗2 (2e1 + e3 ) − e∗3 (2e1 + e3 )


u∗ (u2 ) = 3e∗1 (3e3 ) + e∗2 (3e3 ) − e∗3 (3e3 )
u∗ (u3 ) = 3e∗1 (e2 − e3 ) + e∗2 (e2 − e3 ) − e∗3 (e2 − e3 )

y teniendo en cuenta que e∗i (ej ) = δ ij = {1, 0} vemos por lo tanto que

(u∗ (u1 ) , u∗ (u2 ) , u∗ (u3 )) = (5, −3, 2)

otra forma de calcular estas coordenadas son:


   
3 5
At  1  =  −3 
−1 2
    
2 0 1 3 5
 0 0 3   1  =  −3 
0 1 −1 −1 2
como comprobamos.

Ejemplo 3.4.9 Sea f : R4 −→ R3 tal que

f (x, y, z, t) = (x − y, 2y − z, 2z − t)

Calcular:

1. Bases de ker f, Im f y R4 / ker f.


∗
2. Sea g : R3 −→ R tal que las coordenadas de (g · f ) ∈ R4 respecto de la base
dual de la canónica son (2, 0, 1, −1). Calcular las coordenadas de g respecto de
la base dual
{(1, 0, 0) , (1, 1, 0) , (1, 1, 1)}

Solución.
Ya de forma rutinaria pasamos a calcular las bases.
 
1 −1 0 0
M (f, B) =  0 2 −1 0 
0 0 2 −1
cuyo rango es 3.
BIm f = {(1, 0, 0) , (−1, 2, 0) , (0, −1, 2)}
mientras que ker f es:

 x−y =0
2y − z = 0 =⇒ Bker f = {(1, 1, 2, 4)}
2z − t = 0

por lo tanto

BR4 / ker f = {(e1 + ker f ) , (e2 + ker f ) , (e3 + ker f )}


40 Determinantes y Sistemas

f∗ (ei + ker f ) = f∗ (ei ) = f (ei ) = yi


entonces  
1 0 0
M (f∗ , B) =  0 1 0 
0 0 1
∗
Con respecto al segundo apartado consideramos g : R3 −→ R i.e. g ∈ R3
tal que
f - 3
R4 R
@
@
@ g
g•f @
@ ?
R
R
Sea
B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} = {v1 , v2 , v3 }
y
g = αu1 + βu2 + γu3
con B ∗ = {u∗1 , u∗2 , u∗3 } tal que g · f = 2h1 + h3 − h4 = (2, 0, 1, −1) . Recordamos que
ui (vj ) = δ ij . Pasamos a calculas las formas ui :
  
 a=1  a=0  a=0
u1 = a + b = 0 , u2 = a + b = 1 , u3 = a+b=0
a+b+c=0 a+b+c=0 a+b+c=1
  

u1 = x − y, u2 = y − z, u3 = z
como g = αu1 + βu2 + γu3 entonces
g = α x0 − y 0 + β y 0 − z 0 + γ z 0
  

y
(g · f ) (x, y, z, t) = g (f (x, y, z, t)) = g (x − y, 2y − z, 2z − t) = 2h1 + h3 − h4
eligiendo
x0 = x − y, y 0 = 2y − z, z 0 = 2z − t
entonces
α x0 − y 0 + β y 0 − z 0 + γ z 0 =
  

α (x − y − 2y + z) + β (2y − z − 2z + t) + γ (2z − t) =⇒

αx = 2
(−3α + 2β) y = 0
(α − 3β + 2γ) z = 1
(β − γ) t = −1
por lo tanto
α = 2, β=3 y γ=4
Ejemplos. 41

Ejemplo 3.4.10 Sea V etc.. tal que BV = {ei }3i=1 y sea B 0 = {(1, −3, 1) , (2, 0, 1) , (−1, 2, −2)}
i.e. B 0 = {vi }3i=1 queremos comprobar:
1. B 0 es base de V,
2. Determinar (B 0 )∗ , (referenciada a la base dual de B)
3. L = L(v1 , v2 ) entonces determinar L◦ y las ecuaciones implícitas de L.
Solución.
Comprobamos de forma trivial que B 0 es base de V si detB ({vi }3i=1 ) 6= 0 i.e.
 
1 −3 1 1 −3
1
A= 2 0 1  2
0 1 6= 0
−1 2 −2 −1 2 −2
donde A es la matriz de paso de B −→ B 0 .
(B 0 )∗ = {fi }3i=1 / fi (vj ) = δ ij entonces tenemos:
  
 a




 (1, −3, 1)  b =1
 c 




a a − 3b + c = 1



f1 : (2, 0, 1) b
  = 0 =⇒ 2a + c = 0
c −a + 2b − 2c = 0



  
a




(−1, 2, −2)  b  = 0





c
lo hacemos para f2 y f3 obteniendo:
 
 a − 3b + c = 0  a − 3b + c = 0
f2 : 2a + c = 1 , f2 : 2a + c = 0
−a + 2b − 2c = 0 −a + 2b − 2c = 1
 

de esta forma obtenemos:


2 3 4
f1 = x − y− z
7 7 7
4 1 1
f2 = x + y− z
7 7 7
3 1 6
f3 = x − y− z
7 7 7
A A0 t
comprobamos que si B −→ B 0 y B ∗ −→ (B 0 )∗ entonces A0 = A−1 i.e.
   
1 −3 1 2 −3 −4
0 1
A=  2 0 1  7 →A =
− 4 1 −1 
7
−1 2 −2 3 −1 −6

Sea L = L(v1 , v2 ) entonces determinar L◦ y las ecuaciones implícitas de L.


Como L = L {v1 , v2 } entonces L◦ = {f (vi ) = 0}. Como dim V = 3 y dim L = 2
entonces dim L◦ = 1. Calculamos
f (v1 ) = a − 3b + c = 0
f (v2 ) = 2a + c = 0
42 Determinantes y Sistemas

entonces resolviendo el sistemilla en (a, b, c) obtenemos:

BL◦ = {3λ, −λ, −6λ}

mientras que las ecuaciones de L◦ son:

x − 3y + z = 0
2x + z = 0

y por último las ecuaciones de L son:



x y z

1 −3 1 = −3x + y + 6z = 0

2 0 1

Ejemplo 3.4.11 Sea V etc.. tal que BV = {u1 , u2 , u3 }. Sea L la variedad de V


engendrada por 
 w1 = (1, 1, 3)
L: w2 = (−1, 1, −1)
w3 = (2, 3, 7)

resepcto de BV . Calcular:

1. Extraer de {wi }3i=1 una base de L y prolongarla a una base de V. Hallar su dual.

2. Determinar L◦ así como una base suya.

3. Obtener una variedad L1 suplementaria de L◦ en V ∗ .

4. Hallar dim y las ec. implícitas de (L1 )◦ .

Solución.
Vemos de forma trivial que

1 1 3
det {wi }3i=1 = 0

i.e. −1 1 −1 = 0

B 2 3 7

por lo tanto los vectores  que generan


 L i.e. {wi }3i=1 son LD. Ahora bien {wi }2i=1
son LI entonces L = L {wi }2i=1 por lo tanto BL = {w1 , w2 } comprobando de esta
forma que dim L = 2 de tal forma que L ⊂ V. Una base de V se obtiene de forma
trivial simplemente agragándole un vector BV0 = {w1 , w2 , e3 }.Para calcualr una base
B ∗ = {u∗1 , u∗2 , u∗3 } y (BV0 )∗ = {w1∗ , w2∗ , e∗3 } como en ejemplos anteriores vemos que si
A A0
la matriz de paso de una base a otra es A i.e. B −→ B 0 entonces B ∗ −→ (B 0 )∗ de tal
forma que    
1 −1 0 1 −1 −4
1
A= 1 1 0  7−→ A0 =  1 1 −2 
2
3 −1 1 0 0 2
Ejemplos. 43

entonces (BV0 )∗ = {w1∗ , w2∗ , e∗3 } donde

1
w1∗ = [x + y]
2
1
w2∗ = [−x + y]
2
1
e∗3 = [−4x − y + z]
2
Las ecuaciones de L◦ son:

◦ x + y + 3z = 0
L =
−x + y − z = 0

observándose que V = L ⊕ L◦ . La base BL◦ la obtenemos de



x y z

1
1 3 = −2x − y + z = 0
−1 1 −1

Ası́ pues (−2u∗1 − u∗2 + u∗3 ) es una base de (BL◦ ) .


El subespacio vectorial L1 ⊂ V ∗ / L1 = {u∗1 , u∗2 } es un suplemanetario de L◦
en V ya que {u∗1 , u∗2 } y (−2u∗1 − u∗2 + u∗3 ) son LI

Por último como dim L1 = 2 entonces (dim L1 )◦ = 3 − 2 = 1. Las ecuaciones


implícitas de (L1 )◦ son: 
◦ x=0
(L1 ) :
y=0
ecuaciones cuyos coeficientes son las coordenadas respecto de B ∗ de una base de L1 .

Ejemplo 3.4.12 Sea f : R3 −→ R4 cuyas ecuaciones respecto de las bases canónicas


son:    
y1 −1 2 1  
x1
 y2   −2 1 −4  

 y3  = 
   x2 
3 −2 5 
x3
y4 −2 4 2

1. Hallar f t ,

2. Determinar ker f t , Im f t ,

3. Sea α (x, y, z, t) = 2x − y − +t / α ∈ Λ1 (R4 ) hallar f t (α) .

Solución.
Sean BR∗ 3 y BR∗ 4 duales de las bases canónicas respectivas y (x1 , x2 , x3 ),
(y1 , y2 , y3 , y4 ) coordenadas respecto de dichas bases entonces f t es:
 
 y
3 −2  1 
  
x1 −1 −2
y2 
 x2  =  2 1 −2 4   y3 
x3 1 −4 5 2
y4
44 Determinantes y Sistemas

por lo tanto ker f t es:



 −y1 − 2y2 + 3y3 − 2y4 = 0
ker f t : 2y1 + y2 − 2y3 + 4y4 = 0
y1 − 4y2 + 5y3 + 2y4 = 0

donde
Bker f t = {(λ − 2µ, 4λ, 3λ, µ) / λ, µ ∈ R} ,
observándose que
dim ker f t = dim Im f t
entonces una base de ker f t está formada por las formas lineales {u∗1 , u∗2 } las coor-
denadas respecto de BR∗ 4 son {(1, 4, 3, 0) , (−2, 0, 0, 1)} . Una base de Im f t está for-
mada por las formas {v1∗ , v2∗ } ∈ R3 cuyas coordenadas respecto de la base BR∗ 3 son
{(−1, 2, 1) , (−2, 1, −4)} .
Las ecuaciones implı́citas de Im f t resultan de:

x y z

−1 2 1 = −3x − 2y + z = 0

−2 1 −4

Por último las coordenadas de α respecto de BR∗ 4 = {e∗1 , .., e∗4 } son:

{α (e1 ) , ...., α (e4 )} / BR4 = {e1 , .., e4 }

entonces dichas coordenadas son: (2, −1, 0, 1) . Las coordenadas de f t respecto de


BR∗ 3 son:
 
    2  
x1 −1 −2 3 −2  −2
−1  

 x2  =  2 1 −2 4   0 = 7 
x3 1 −4 5 2 8
1
entonces f t (α) (x, y, z) = −2x + 7y + 8z ∀ (x, y, z) ∈ R3 .
Capı́tulo 4
CLASIFICACIÓN DE ENDOMORFISMOS. MATRICES DE JORDAN

4.1 Clasificación de endomorfismos.


Sea f : V −→ W una aplicación entre espacios vectoriales, nos interesa escoger una
base respecto de la cual f tenga una expresión matricial sencilla.

Definición 4.1.1 Valor propio y vector propio. Sea f ∈ End(V ) tal que f (v) = λv.

f (v) − λv = 0 ⇐⇒ v ∈ ker(f − λI)

λ ∈ K es valor propio de f sii ker(f − λI) 6= ~0, λ ∈ σ(f ). Denotamos por n oVλi =
ker(f − λi I). Vλi ⊂ V y sean λ1 , λ2 ∈ σ(f )/ λ1 6= λ2 entonces Vλ1 ∩ Vλ2 = ~0 .

Observación 4.1.1 Vλ = ker(f − λI), sea x ∈ ker(f − λI) ⇐⇒ (f − λI)(x) =


f (x) − λx ⇐⇒ f (x) = λx i.e. ⇐⇒ x ∈ Vλ .
Vλi ⊂ V como es inmediato de ver ya que, sean x, y ∈ Vλ y α, β ∈ K, entonces

f (x + y) = f (x) + f (y) = λx + λy = λ(x + y) ∈ Vλ


f (αx + βy) = λ(αx + βy) ⊂ Vλ

y por último. n o
Si λ1 , λ2 ∈ σ(f )/ λ1 6= λ2 entonces Vλ1 ∩ Vλ2 = ~0 ya que si tomo ∀x ∈
nλ1o∩ Vλ2 i.e. x ∈ Vλ1 y x ∈ Vλ2 entonces f (x) = λ1 x = λ2 x entonces (λ1 − λ2 ) x =
V
~0 ⇐⇒ λ1 = λ2 como queríamos hacer ver.

Definición 4.1.2 Multiplicidad del valor propio λ a la dimensión de ker(f − λI)

Proposición 4.1.1 λ ∈ K es autovalor de f sii det(f − λI) = 0.

Demostración. λ ∈ σ(f ) ⇐⇒ ker(f − λI) 6= ~0 ⇐⇒ det(f − λI) = 0.

Definición 4.1.3 Polinomio característico. Sea f ∈ End(V ) tal que A = M(f, B)


es su matriz.
pf (λ) = det(A − λI) = 0

Proposición 4.1.2 El polinomio característico no depende de la base.

Proposición 4.1.3 Los vectores propios de valores propios diferentes son LI.
46 Clasificación de Endomorfismos. Matrices de Jordan

Demostración.PSea L = L(x1 , ..., xr ) ⊂ V . Supongamos que BL = {x1 , ..., xp }


p ~
con p <P r. Sea xr = r=1 αi xi con xr 6= 0, entonces existe un αi 6= 0, tal que
f (xr ) = r=1 αi f (xi ) y f lineal, entonces λr xr = pr=1 (αi λi ) xi . Si λr = 0 entonces
p P
(αi λi ) 6= 0
p
X
~0 = (αi λi ) xi
r=1

entonces (αi λi ) 6= 0 lo que implica queP{x1 , ..., xp } son


 LD lo cual es contrdictorio !¡.
−1 p −1 Pp
Si λr 6= 0 entonces ∃ λr ∈ K/ xr = r=1 αi λi λr xi tal que xr = r=1 αi xi con
αi 6= 0 definimos αi = λi λ−1 r de tal que λi λ−1r = 1 entonces λi = λr !¡=⇒ p = r.

Corolario 4.1.1 El número de valores propios diferentes es menor igual que la di-
mensión del espacio V . Si hay exactamente n diferentes entonces f es diagonalizable.

Ejemplo 4.1.1 Sea f ∈ End(V ) tal que A = M(f, B) es su matriz.


  3 4

1 3 4 −λ
A= =⇒ p(λ) = 5 5 =0
−3
4
5 4 −3 5 5 − λ

el polinomio caracterı́sco es
λ2 − 1 = 0
y las soluciones por lo tanto (i.e. los autovalores) son:

σ(λ) = {1, −1}

su matriz diagonal es:  


1 0
D=
0 −1
y los vectores propios los calculamos

ker(A − λI)

i.e.       
1 3 4 1 0 v1
− λi =0
5 4 −3 0 1 v2
resultando que para λ = 1 su autovector es v = (2, 1) mientras que para λ = −1
w = (1, −2). De esta forma se observa que

A = B −1 DB

donde  
2 1
B=
1 −2
 3 4
  −1   
5 5 2 1 1 0 2 1
4 =
5 − 35 1 −2 0 −1 1 −2
Polinomio mı́nimo. 47

Proposición 4.1.4 Si r es la multiplicidad del autovalor λ, y s es la multiplicidad


del cero k del polinomio caracterı́stico, entonces r ≤ s.

Teorema 4.1.1 Un endomorfismo f es diagonalizable sii su polinomio caracterı́stico


se descompone en factores lineales y la multiplicidad de cada uno de sus ceros coincide
con su multiplicidad como autovalor de f .

Demostración. σ(f ) = {λ1 , ......, λr }Pdonde p(λ) = (λ1 − λ)s1 (λ2 − λ)s2 ...... (λr − λ)sr
i.e. p(λ) = i=1 (λi − λ)si de tal forma que ri=1 si ≤ n = dim V
Qr


dim (V1 ) = s1 7→ {e11 , ......, ers1 } 
··· ··· B = {e11 , ......, ers1 , ......, ersr }
 V
dim (Vr ) = sr 7→ {er1 , ......, ersr }
comprobando que

(λ11 e11 + ...... + λ1s1 ers1 ) + ..... + (λr1 er1 + ...... + λrsr ersr ) = ~0

entonces ri=1 vi = ~0 =⇒ v1 = ... = vr = ~0


P

v1 = 0 =⇒ λ11 = ...... = λ1s1 = 0


···
vr = 0 =⇒ λr1 = ...... = λrsr = 0
por lo que la matriz resultante es de la forma:
 
λ1
 .. 
 . 
 

 λ1 

M (f, BV ) = 
 .. 
 . 


 λr 

 .. 
 . 
λr
como querı́amos hacer ver.

4.2 Polinomio mı́nimo.


Queremos descomponer V (dim V = n) en suma directa de subespacios, de tal forma
que podemos obtener bases de cada uno de ellos y poder ası́ expresar el endomorfismo.
Consideramos las potencias de f : f r / r = 0, 1, ..., n, ... donde

f 0 = I, f 1 = f, ....., f r = f · f r−1

a0 f 0 + a1 f 1 + ..... + ar f r = 0
las potencias de f r no pueden ser todas LI. Definimos,
φf : K [x] −→ End(V )
p(x) 7−→ p(f ) = a0 I + a1 f + ..... + ar f r
tal que 
ker φf := {p(x) ∈ K [x] / p(f ) = 0} := mf (x)
48 Clasificación de Endomorfismos. Matrices de Jordan


Definición 4.2.1 El conjunto de polinomios p(x) ∈ ker φf se denominan anu-
ladores de f , N (f ), y a mf (x) polinomio mı́nimo de f. Verificándose mf (x) ∈ N (f ).

Fijamos un vector ~u ∈ V y consideramos


φ~u : K [x] −→ (V )
p(x) 7−→ p(f )(~u)
tal que n o
ker (φ~u ) := p(x) ∈ K [x] / p(f )(~u) = ~0 := m~u (x)

Definición 4.2.2 m~u (x) es el polinomio mı́nimo de f en ~u.

Proposición 4.2.1 Sea m~u (x) s el polinomio mı́nimo de u


s−1
= a0 + a1x + ..... + as x s−1
(u), f t (u) son LD.

entonces u, f (u), ....., f (u) son LI y u, f (u), ....., f

4.3 Subespacios invariantes.


Sea f ∈ End(V ). Un subespacio F ⊂ V se llama invariante por f si f (F ) ⊂ F. Sea

f 0 := f|F : F −→ F
v 7−→ f (v)

Proposición 4.3.1 mf 0 divide a mf .

Corolario 4.3.1 Sean F, G ⊂ V dos subespacios, tal que (mF , mG ) = 1, entonces


F ∩ G = ∅.

Proposición 4.3.2 Para todo p(x) ∈ K [x], ker p(f ), Im p(f ) son subespacios in-
variantes por f.

Supongamos que mf (x) se descompone en producto de factores primos entre


si, i.e.
mf (x) = p(x)q(x)
consideramos los subespacios invariantes ker p(f ), ker q(f ) entonces p(x) y q(x) son
anuladores de f restringidos a estos espacios, entonces
n o
ker p(f ) ∩ ker q(f ) = ~0

observándose que 
ker p(f ) ⊃ Im q(f )
=⇒
ker q(f ) ⊃ Im p(f )

n = dim ker p(f ) + dim Im p(f ) ≤ dim ker p(f ) + dim ker q(f )
=⇒ dim (ker p(f ) ⊕ ker q(f )) ≤ n

V = ker p(f ) ⊕ ker q(f )

Teorema 4.3.1 Primer teorema de descomposición. Si mf (x) = m1 (x)n1 ......mr (x)nr


tal que (mi (x), mj (x)) = 1 ∀i, j entonces V = V1 ⊕ .... ⊕ Vr de tal forma que el poli-
nomio mínimo de la restricción de f a Vi es mi (x)ni . Esta descomposición es única.
Vi = ker (mi (f )ni ) .
Subespacios invariantes. 49
n o
Demostración. Por inducción: Si mf (x) = m1 (x)n1 entonces V = V1 ⊕ ~0
tal que V1 = ker (m1 (f )n1 ) . Supongo ahora que mf (x) = m1 (x)n1 ......mr−1 (x)nr−1
entonces V = V1 ⊕ .... ⊕ Vr−1 tal que mfi (x) = mi (x)ni donde Vi = ker (mi (f )ni ) .
Para el caso r entonces tenemos que:

mf (x) = [m1 (x)n1 ......mr−1 (x)nr−1 ]mr (x)nr


| {z }
p(x)

de tal forma que (p(x), mr (x)nr ) = 1, entonces V = L ⊕ Vr tal que L = ker [p(f )]
y Vr = ker (mr (f )nr ) donde f 0 = f|L −→ mf 0 (x) = p(x), y fr = f|Vr −→ mfr (x) =
mr (x)nr . El subespacio L está formado por L n= oV1 ⊕ .... ⊕ Vr−1 ya que mL (x) =
m1 (x)n1 ......mr−1 (x)nr−1 donde ∀i, j Vi ∩ Vj = ~0 , con Vi = ker (mi (f )ni ) de esta
forma V = V1 ⊕ .... ⊕ Vr .
La descomposición de V en suma directa de subespacios invariantes, reduce
el estudio del comportamiento de f al estudio de sus restricciones a cada uno de estos
subespacios.

Ejemplo 4.3.1 Sea A dada por


3 4
 
A= 5 5
4
5 − 35

tal que A = M(f, B) etc.... Vemos que:

A0 = I, A1 = A, A2 = I

entonces (X 2 − 1) es su polinomio anulador.

mf (x) = x − 1 mf (f ) = f − I = 0 =⇒ f = I

mf (x) = x + 1 mf (f ) = f + I = 0 =⇒ f = −I
ninguno de estos casos es el nuestro, entonces

mf (x) = (x − 1)(x + 1)

y por lo tanto V = V1 ⊕ V2 donde


V1 = ker(f − λ1 I) = (2, 1) f|V1 = IV1

V2 = ker(f − λ2 I) = (1, −2) f|V2 = −IV2

Teorema 4.3.2 De diagonalización. Un endomorfismo es diagonalizable sii su poli-


nomio mínimo se descompone en factores lineales no repetidos.
Demostración. f diagonalizable, entonces existe una base B de V tal que
la matriz de f respecto de dicha base es diagonal i.e.
 
λ1
M (f, B) = 
 .. 
. 
λr
50 Clasificación de Endomorfismos. Matrices de Jordan

donde σ(f ) = {λ1 , ....., λr }, BV = {vi } formada de vectores propios. El espacio V se


descompone en suma directa de subespacios i.e. V = Vλ1 ⊕ ..... ⊕ Vλr tal que Vλ1 =
ker [f − λ1 I] con lo que mf (x) = (x − λ1 ) y así sucesivamente i.e. Vλr = ker [f − λr I]
con lo que mf (x) = (x − λr ) de tal forma que el polinomio mínimo será

r
Y
mf (x) = (x − λi )
i=1

Si mf (x) = ri=1 (x−λi ) entonces el espacio V se descompone en suma directa


Q
de subespacios propios i.e. V = Vλ1 ⊕ ..... ⊕ Vλr tal que Vλr = ker [f − λr I] pero esto
implica que existe una base de V formada por vectores propios de cada una de estos
autovalores de tal forma que la expresión matricial del endomorfismo respecto de esta
base es diagonal.

4.4 Grado del polinomio mı́nimo.


Proposición 4.4.1 grad(mf (x)) ≤ n

Observación 4.4.1 Los ceros del polinomio característico pf (x) son también ceros
del polinomio mf (x).

Proposición 4.4.2 a es un cero de mf (x) sii lo es de pf (x).

Teorema 4.4.1 Si el polinomio mínimo y el característico se descomponen en fac-


tores lineales, entonces el polinomio característico es un anulador de f i.e. pf (f ) = 0.

Teorema 4.4.2 Cayle-Hamilton. El polinomio mínimo divide siempre al carac-


terístico.

Demostración. Sea V tal que dim V = n y M(f, B) = A ; B(x) = (A − xI)


y sea B 0 (x) = adj [B(x)] cada término de esta matriz va a ser un polinomio de grado
como mucho n−1. Entonces B 0 (x) = B0 +B1 x+.....+Bn−1 xn−1 donde B(x)·B 0 (x) =
det [B(x)]·I. donde det [B(x)] = pf (x) y por lo tanto B(x)·B 0 (x) = pf (x)·I. Supongo
que pf (x) = a0 + .... + (−1)n xn ,

B(x) · B 0 (x) = (A − xI) B0 + B1 x + ..... + Bn−1 xn−1 = pf (x) · I




(a0 + .... + (−1)n xn ) · I = a0 I + .... + (−1)n xn I


(A − xI) B0 + B1 x + ..... + Bn−1 xn−1 = AB0 + (AB1 − B0 I) x + ............. + (−Bn−1 I)xn =


= (a0 I) + .... + ((−1)n I) xn

identificando término a término se observa que:

I AB0 = a0 I
A AB1 − B0 = a1 I
··· ···
An−1 ABn−1 − Bn−2 = an−1 I
An −Bn−1 = (−1)n I
Grado del polinomio mı́nimo. 51

multiplicando cada fila por lo se indica a la izquierda entonces

AB0 = a0 I
A2 B1 − AB0 = a1 A
···
n
A Bn−1 − A n−1 Bn−2 = an−1 A n−1

−An Bn−1 = (−1)n An

sumamos entonces
0 = a0 I + .... + ((−1)n An )
de esta forma demostramos que M(pf (f ), BV ) = 0 ∈ Mn×n y A = M(f, BV ) de esta
forma pf (f ) = 0(x) ∈ [End(V )] =⇒ pf (x) ∈ N (f ) y además (mf (x)/pf (x)) como
queríamos hacer ver.

Observación 4.4.2 Este teorema proporciona un método práctico para calcular el


polinomio mínimo de un endomorfismo f. Sea A = M(f, B), el polinomio carac-
terístico pA (x) lo descomponemos en factores irreducibles y buscamos el menor de
sus divisores q(x)tal que q(f ) = 0, entonces q(f ) = mf (x).

Sea mf (x) el polinomio mónico de grado más pequeño entre los del conjunto
ker(φ~u ). Se tiene que
q(x) ∈ ker(φ~u ) ⇐⇒ mf (x) | q(x)

Teorema 4.4.3 Sea pf el polinomio característico del endomorfismo f . El polinomio


mínimo es:
pf (x)
mf = ,
q(x)
donde q(x) es el máximo común divisor de los menores de orden (n − 1) de la matriz
A − xIn .

Ejemplo 4.4.1 Consideremos el endomorfismo

f : R4 −→ R4

tal que su expresión matricial es la siguiente:


 
1 0 0 0
 0 1 0 0 
M (f, B) =   0 0

1 1 
0 0 −1 1

cuyo polinomio caracterı́stico es:

p(x) = (X − 1)2 X 2 − 2X + 2


mientras que el polinomio mínimo es:

m(x) = (X − 1) X 2 − 2X + 2

52 Clasificación de Endomorfismos. Matrices de Jordan

ya que los determinantes de los menores de orden 3 de la matriz A − xI4 son:

q1 (x) = (1 − x)3
q2 (x) = − (1 − x)2
q3 (x) = (1 − x)2
q4 (x) = (1 − x) 2 − 2x + x2


por ejemplo veamos como hemos calculado q4 (x) :


     
1 0 0 1 0 0 1−x 0 0
 0 1 1  −x 0
 1 0 = 0 1−x 1 
0 −1 1 0 0 1 0 −1 1 − x

1−x 0 0
1 = (1 − x) 2 − 2x + x2 = q4 (x)

0
1 − x
0 −1 1−x

por lo tanto
q(x) = m.c.d (qi (x))4i=1 = (1 − x)
de tal forma que el polinomio mínimo es:

pf (x)
= (X − 1) X 2 − 2X + 2 ,

mf =
q(x)

como querı́amos hacer ver.

4.5 Matriz canónica de un endomorfismo. (Jordan).


Vamos a descomponer cada subespacio Vi en suma de subespacios invariantes sobre
los cuales la actuación de f es muy clara. Los subespacios f −cíclicos. Un subespacio
F ⊂ V es f −cíclico si existe un vector u ∈ V / F = {u, f (u), ...., } F es invariante
por f (dim F = gradmf (x)) . si este polinomio es:

a0 + a1 x + ..... + as−1 xs−1 + xs

entonces
u, f (u), ...., f s−1 (u)


es base de F y en esta base la matriz de la restricción de f es:


 
0 · · · · · · −ao
 1 0
 −a2  
 . . .
.

 0 1
 . . 

..
. ··· 1 −as−1

Teorema 4.5.1 Segundo teorema de descomposición. Sea f ∈ End(V ). Entonces


podemos descomponer V en suma directa de subespacios f −cíclicos.
Matriz canónica de un endomorfismo. (Jordan). 53

Supomgamos que mf (x) se descompone en factores lineales y V = V1 ⊕....⊕Vr .


Si tomo ∀Vi un vector ui con polinomio mínimo (x − ai )si entonces

(ui , (f − ai I) ui , ....., (f − ai I)si−1 ui )

son LI con dim Vi = si , estos vectores forman base. La matriz de f restringida a Vi


en esta base es:  
ai 0 · · · 0

 1 .. 
 ai . 

 .. ..
J(ai , si ) =  .

1 . 
..
 
 
 0 . 0 
··· 0 1 ai

Teorema 4.5.2 Si el polinomio mínimo de f se descompone en factores lineales,


entonces existe una base de V en la que la matriz de f es de la forma:
 
J(a0 ,s0 ) ···
 .. .. 

 . . 

 .
.

J =
 . J(ai ,si ) 

 .. ..


 . . 

··· J(ar ,sr )

que es la matriz canónica de Jordan.

Los elementos de la diagonal son precisamente los autovalores. Para obtener


una base de V en la cual la matriz de f sea la matriz canónica de Jordan procedemos
de la siguiente manera: Sea

p(x) = (x − λ1 )α1 .....(x − λr )αr


P
el polinomio característico de f , tal que αi = dim V y sea

m(x) = (x − λ1 )s1 .....(x − λr )sr

el polinomio mínimo de f tal que si ≤ αi ∀i. Los si estan caracterizos de la siguiente


manera:
n o
~0 ⊂ ker (f − λi I) ⊂ ker (f − λi I)2 ⊂ ...... ⊂ ker (f − λi I)i

tal que
ker (f − λi I)si = ker (f − λi I)t = Vi
X
V = ⊕Vi
54 Clasificación de Endomorfismos. Matrices de Jordan

4.6 Ejemplos.
Empezamos con un esquema.

1. Cálculo de los autovalores σ(λ) i.e.

det (A − λI) = 0

fundamental, tener encuanta


P la multiplicidad de cada uno de los autovalores
γ(λi ) de tal forma que γ(λi ) = n = dim V.
2. Para cada autovalor λi ∈ σ(λ) vamos a conocer las cajas de Jordan a que da
lugar
rang (A − λi I) = rang (J − λi I) = ki
i.e.
ki − n + γ(λi ) = no de 1 en la caja de λi

Si esto no funciona entonces deberemos calcular los números de Segré, i.e.,


para cada λi ∈ σ(λ) con multiplicidad γ(λi ) = pi calculamos las dimensiones de los
espacios

ker (A − λi I) = 0 S1 = I1
2
ker (A − λI) = 0 S2 = I2 − I1
.. ..
. .
ker (A − λI)pi = 0 Sp = Ip − Ip−1

donde Ii = dim V − rang (A − λI)i = dim ker (A − λI)i de tal forma que

q1 + q2 + ....... + qp = S1
q2 + ....... + qp = S2
..
.
q p = Sp

donde qi indica el número de cajas de orden i.

Ejemplo 4.6.1 Calcular la forma de Jordan de la matriz


 
1 2 3 0 0
 0 1 2 0 0 
 
A=  0 0 1 2 0 
 0 0 0 2 1 
0 0 0 0 1

Solución. Siguiendo el esquema anteriormente expuesto tenemos que

p(λ) = (λ − 1)4 (λ − 2)
P
y que por lo tanto σ(λ) = (1, 2) donde γ(1) = 4 y γ(2) = 1 (vemos que γ(λi ) =
a
4+1 = dim V = 5) también podemos comprobar (th Caley-Hamilton) que el polinmio
mínimo coincide con el característico i.e.

mf (X) = (X − 1)4 (X − 2)
Ejemplos. 55

por lo que la matriz no es diagonalizable y debemos aplicar sin remedio el método de


Jordan.
Calculamos por lo tanto las dimensiones de los subespacios (A − λI)i

1. rang (A − λI) = 4 como se ve facilmete, por lo tanto dim ker(A − λI) = 1


  
0 2 3 0 0 x
 0 2y + 3z = 0
0 2 0 0   y 
 

 0 2z = 0
0 0 2 0    z  = 0 =⇒
 

 0 2t = 0
0 0 1 1  t 
t+f =0
0 0 0 0 0 f
Bker(A−λI) = (1, 0, 0, 0, 0)

2. rang (A − λI)2 = 3 como se ve facilmete, dim ker(A − λI)2 = 2


  
0 0 4 6 0 x
 0 4z + 6t = 0
0 0 4 0   y 
 

 0 4t = 0
 0 0 2 2    z  = 0 =⇒ 2t + 2f = 0
 
 0 0 0 1 1  t 
t+f =0
0 0 0 0 0 f
Bker(A−λI)2 = {(1, 0, 0, 0, 0) , (0, 1, 0, 0, 0)} = {e1 , e2 }

3. rang (A − λI)3 = 2 como se ve facilmete entonces dim ker(A − λI)3 = 3


  
0 0 0 14 6 x
 0 0 0 4 14t + 6f = 0
4  y 
 

 0 0 0 2 4t + 4f = 0
 2   z  = 0 =⇒ 2t + 2f = 0
 
 0 0 0 1 1  t 
t+f =0
0 0 0 0 0 f
Bker(A−λI)3 = {e1 , e2 , e3 }
con e3 = (0, 0, 1, 0, 0)
4. rang (A − λI)4 = 1 como se ve facilmete y por lo tanto dim ker(A − λI)4 = 4
  
0 0 0 14 14 x
 0 0 14t + 14f = 0
0 4 4   y 
 

 0 0 4t + 4f = 0
0 2 2    z  = 0 =⇒
 

 0 0 2t + 2f = 0
0 1 1  t 
t+f =0
0 0 0 0 0 f
Bker(A−λI)4 = {e1 , e2 , e3 , (0, 0, 01, −1)}

5. rang(A − 2I) = 4 y por lo tanto dim ker(A − 2I) = 1


  
−1 2 3 0 0 x −x + 2y + 3z = 0
 0 −1 2 0 0  y  −y + 2z = 0
  
 0
 0 −1 2 0   z  = 0 =⇒
  −z + 2t = 0
 0 0 0 0 1   t  f =0
0 0 0 0 −1 f −f = 0
Bker(A−2I) = {(14, 4, 2, 1, 0)}
56 Clasificación de Endomorfismos. Matrices de Jordan

De esta forma los números de Segré son:


q1 + q2 + q3 + q4 = 1 I1 = 1 = S1
q2 + q3 + q4 = 1 I2 = 2 =⇒ S2 = I2 − I1 = 1
q3 + q4 = 1 I3 = 3 =⇒ S3 = 1
q4 = 1 I4 = 4 =⇒ S4 = 1
i.e. q4 = 1 esto quiere decir que sólo habrá una única caja pero de orden 4. Por lo
tanto la matriz de Jordan de A será:
 
1 0 0 0 0
 1 1 0 0 0 
 
JA =  0 1 1 0 0 

 0 0 1 1 0 
0 0 0 0 2
Pasamos ahora a calcular la base. Tomamos un vector u4 ∈ E4 − E3 donde E4 =
ker(A − λI)4 etc... y el resto de los vectores los voy tomando de
u4 ∈ E4 − E3 = (0, 0, 0, 1, −1)
u3 = (A − λI)a4 = (0, 0, 2, 0, 0)
u2 = (A − λI)a3 = (A − λI)2 a4 = (6, 4, 0, 0, 0)
u1 = (A − λI)a2 = (A − λI)3 a4 = (8, 0, 0, 0, 0)
de tal forma que los vectores {u1 , u2 , u3 , u4 } formen base. Se comprueba que A =
CJC −1 ó J = C −1 AC
     
1 2 3 0 0 14 8 6 0 0 2 0 0 0 0 0 0 0 1 1
 0 1 2 0 0   4 0 4 0 0  0 1 1 0 0  1 − 3 0 −1 −1 
     8 16
1

 0 0 1 2 0 = 2
   0 0 2 0 
 0 0 1 1 0  0
 4 0 −1 −1 

1
2 −1 −1
 0 0 0 2 1   1 0 0 0 1  0 0 0 1 1  0 0 
0 0 0 0 1 0 0 0 0 −1 0 0 0 0 1 0 0 0 0 −1

Ejemplo 4.6.2 Calcular la forma de Jordan de la matriz


 
1 0 2 −6
 0 1 −1 3 
A=  0 0

1 3 
0 0 0 2
Solución. Siguiendo el esquema expuesto al principio de la sección
vemos que el polinomio caracterı́stico es:
p (λ) = (λ − 1)3 (λ − 2)
mientras que el polinomio mínimo es:
mf (X) = (X − 1)2 (X − 2)
el conjunto de autovalores está formado por: σ (λ) = (1, 2) de tal forma que γ (1) = 3
mientras que γ (2) = 1.
Pasamos a calcular los subespacios invariantes.
Ejemplos. 57

1. rang (A − I) = 2 entonces dim ker (A − I) = 2

2. rang (A − I)2 = 1 entonces dim ker (A − I) = 3 = γ (1)

Por lo tanto los números de Segré en este caso son:

q1 + q2 = 2 I1 = 2 = S1
q2 = 1 I2 = 3 =⇒ S2 = I2 − I1 = 1

por lo tanto habrá dos cajas, una de oreden 2 y la otra de orden 1 i.e.
 
1 1 0 0
 0 1 0 0 
JA = 
 0

0 1 0 
0 0 0 2

La base estará formada por los siguientes vectores:

u1 ∈ ker (A − I) = (1, 0, 0, 0)
u2 ∈ ker (A − I)2 = (0, 0, 1, 0)
u3 = (A − I) u2 = (2, −1, 0, 0)
u4 ∈ ker (A − 2I) = (0, 0, 3, 1)

de tal forma que A = CJC −1


     −1
1 0 2 −6 0 2 0 1 2 0 0 0 0 2 0 1
 0
 1 −1 3   0 −1 0 0
=
 0
 1 1 0 

 0 −1 0 0 

 0 0 1 3   3 0 1 0  0 0 1 0  3 0 1 0 
0 0 0 2 1 0 0 0 0 0 0 1 1 0 0 0

Ejemplo 4.6.3 Calcular la forma de Jordan de la matriz


 
0 3 1
A =  2 −1 −1 
−2 −1 −1

Solución.
En primer lugar calculamos el polinomio caracterı́stico, siendo éste:

p (λ) = (λ − 2) (λ + 2)2

mientras que el polinomio mínimo es:

mf (X) = (X − 2) (X + 2)2

el conjunto de autovalores esta formado por: σ (λ) = (2, −2) con γ(−2) = 2 y
γ(2) = 1. Pasamos a calcular los subespacios invariantes.
58 Clasificación de Endomorfismos. Matrices de Jordan

1. rang (A − 2I) = 2 por lo tanto dim ker (A − 2I) = 1 = γ(2). Las ecuaciones del
ker (A − 2I) son
  
−2 3 1 x −2x + 3y + z = 0
 2 −3 −1   y  = 0 =⇒ 2x − 3y − z = 0
−2 −1 −3 z −2x − y − 3z = 0

Bker(A−2I) = {1, 1, −1}

2. rang (A + 2I) = 2, entonces dim ker (A + 2I) = 1 6= γ(−2) Las ecuaciones del
ker son:
  
2 3 1 x 2x + 3y + z = 0
 2 1 −1   y  = 0 =⇒ 2x + y − z = 0
−2 −1 1 z −2x − y + z = 0

Bker(A+2I) = {1, −1, 1}

3. rang (A + 2I)2 = 1, entonces dim ker (A + 2I)2 = 2 = γ(−2)


  
8 8 0 x 8x + 8y = 0
 8 8 0   y  = 0 =⇒ 8x + 8y = 0
−8 −8 0 z −8x − 8y = 0

Bker(A+2I)2 = {(−1, 1, 0) , (0, 0, 1)}

4. Los números de Segré nos dicen:

q1 + q2 = 1
q2 = 1

por lo tanto la matriz de Jordan será de la forma:


 
2 0 0
JA =  0 −2 1 
0 0 −2
los vectores de la base son:

v1 ∈ ker (A − 2I) = (1, 1, −1)


v2 = ker (A + 2I) v3 = (1, −1, 1)
v3 ∈ ker (A + 2I)2 = (0, 0, 1)
     1 1

0 3 1 1 1 0 2 0 0 2 2 0
 2 −1 −1  =  1 −1 0   0 −2 1   12 − 12 0 
−2 −1 −1 −1 1 1 0 0 −2 0 1 1

Ejemplo 4.6.4 Calcular la forma de Jordan de la matriz


 
−2 1 −1
A =  −1 −1 0 
0 1 −3
Ejemplos. 59

Solución.
El polinomio caracterı́stico es:

p (λ) = (λ + 2)3 = mf (X)

por lo tanto
σ(λ) = {−2} / γ (λ) = 3
los subespacios invariantes de este autovalor son:

1. rang(A + 2I) = 2 por lo tanto dim ker(A + 2I) = 1


  
0 1 −1 x
 −1 y−z =0
1 0   y  = 0 =⇒
−x + y = 0
0 1 −1 z

Bker(A+2I) = {(1, 1, 1)}

2. rang(A + 2I)2 = 1 entonces dim ker(A + 2I)2 = 2


  
−1 0 1 x
 −1 0 1   y  = 0 =⇒ −x + z = 0
−1 0 1 z

Bker(A+2I)2 = {(1, 0, 1) , (0, 1, 0)}

3. rang(A + 2I)3 = 0 entonces dim ker(A + 2I)3 = 3

Bker(A+2I)3 = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)}

Los números de Segré nos dicen:

q1 + q2 + q3 = 1
q2 + q3 = 1
q3 = 1

i.e  
−2 1 0
JA =  0 −2 1 
0 0 −2
y que la matriz de paso esta formada por los siguientes vectores:

v3 ∈ E3 = (1, 0, 0)
v2 = (A + 2I)v3 = (0, −1, 0)
v1 = (A + 2I)v2 = (−1, −1, −1)
     
−2 1 −1 −1 0 1 −2 1 0 0 0 −1
 −1 −1 0  =  −1 −1 0   0 −2 1   0 −1 1 
0 1 −3 −1 0 0 0 0 −2 1 0 −1
60 Clasificación de Endomorfismos. Matrices de Jordan

Ejemplo 4.6.5 Calcular la forma de Jordan de la matriz


 
0 1 −1 0
 0 −1 0 1 
A=  1

1 0 0 
0 −2 0 1

Solución.
El polinomio caracterı́stico coincide con el polinomio mı́nimo

p (λ) = λ4 + 2λ2 + 1 = mf (λ)

los autovalores son:

σ (λ) = {i, −i} / γ (i) = 2, γ (−i) = 2

Calculamos los subespacios.

1. rang(A − iI) = 3 por lo tanto dim ker(A − iI) = 1


  
−i 1 −1 0 z1 −iz1 + z2 − z3 =0
 0 −1 − i 0 1   z2  −z 2 − iz2 + z4 =0
   = 0 =⇒
 1 1 −i 0   z3  z1 + z2 − iz3 =0
0 −2 0 1−i z4 −2z2 + z4 − iz4 =0

las ecuaciones del ker = {z1 = iz3 , z3 = z3 , z2 = 0, z4 = 0}

Bker(A−iI) = {(1, 0, −i, 0)}

2. rang(A − iI)2 = 2 por lo tanto dim ker(A − iI)2 = 2


  
−2 −2 − 2i 2i 1 z1 −2z1 − 2z2 − 2iz2 + 2iz3 + z4 =0
 0 −2 + 2i 0 −2i   z2 
   −2z2 + 2iz2 − 2iz4 =0

 −2i = 0 =⇒
−2i −2 1   z3  −2iz1 − 2iz2 − 2z3 + z4 =0
0 4i 0 −2 − 2i z4 4iz2 − 2z4 − 2iz4 =0

las ecuaciones del ker = z4 = iz2 + z2 , z3 = −iz1 − 12 iz2 + 12 z2 , z1 = z1 , z2 = z2




Bker(A−iI)2 = {(1, −1 + i, 0, −2) , (0, 1 + i, 1, 2i)}


otra base es:
Bker(A−iI)2 = {(i, 0, 1, 0) , (0, 1 + i, 1, 2i)}

3. rang(A + iI) = 3 por lo tanto dim ker(A + iI) = 1


  
i 1 −1 0 z1 iz1 + z2 − z3 =0
 0 −1 + i 0 1   z2  −z 2 + iz2 + z4 =0
   = 0 =⇒
 1 1 i 0   z3  z1 + z2 + iz3 =0
0 −2 0 1+i z4 −2z2 + z4 + iz4 =0

las ecuaciones del ker = {z3 = z3 , z2 = 0, z4 = 0, z1 = −iz3 }

Bker(A+iI) = {(−i, 0, 1, 0)}


Ejemplos. 61

4. rang(A + iI)2 = 2 por lo tanto dim ker(A + iI)2 = 2


  
−2 −2 + 2i −2i 1 z1 −2z1 − 2z2 + 2iz2 − 2iz3 + z4 =0
 0 −2 − 2i 0 2i   z2  −2z2 − 2iz2 + 2iz4 =0
   = 0 =⇒
 2i 2i −2 1   z3  2iz1 + 2iz2 − 2z3 + z4 =0
0 −4i 0 −2 + 2i z4 −4iz2 − 2z4 + 2iz4 =0

las ecuaciones del ker = z1 = z1 , z2 = z2 , z3 = iz1 + 12 iz2 + 12 z2 , z4 = −iz2 + z2




Bker(A+iI)2 = {(−i, 0, 1, 0) , (−1 + i, 2, 0, 2 − 2i)}

Por lo tanto la matriz de Jordan es:


 
i 1 0 0
 0 i 0 0 
JA =  
 0 0 −i 1 
0 0 0 −i

donde la matriz de paso esta formada por los vectores:

v2 ∈ ker(A − iI)2 = (0, 1 + i, 1, 2i)


v1 = (A − iI)v2 = (i, 0, 1, 0)
v4 ∈ ker(A + iI)2 = (−1 + i, 2, 0, 2 − 2i)
v3 = (A + iI)v4 = (1 − i, 0, 1 + i, 0)

resulta entonces que:  


0 1 −1 0
 0 −1 0 1 
 =
 1 1 0 0 
0 −2 0 1
− 12 i − 12 1 1
   
i 0 1 − i −1 + 1i i 1 0 0 2 4
1
 0 1+i
 0 2  0 i
 0 0 

 0 2 0 − 14 − 1
4i


1
 1 1 1+i 0   0 0 −i 1 

4 + 14 i 0 1
4 − 1
4i
1
8 +
1
8i

1
0 2i 0 2 − 2i 0 0 0 −i 0 4 − 14 i 0 1
4i
si la matriz la resolvemos en R entonces:

 (0, 1, 1, 0)
(0, 1 + i, 1, 2i) =⇒
(0, 1, 0, 2)


 (0, 0, 1, 0)
(i, 0, 1, 0) =⇒
(1, 0, 0, 0)

de tal forma que,


 −1     
0 1 0 0 0 1 −1 0 0 1 0 0 0 1 1 0
 0 0 1 1   0 −1 0 1   0 0 1 1   −1 0 0 1 
    = 
 1 0 1 0   1 1 0 0  1 0 1 0   0 0 0 1 
0 0 0 2 0 −2 0 1 0 0 0 2 0 0 −1 0
62 Clasificación de Endomorfismos. Matrices de Jordan

Si por ejemplo tomamos

(1 − i, 0, 1 + i, 0) ⇒ {(1, 0, 1, 0) , (−1, 0, 1, 0)}

(−1 + i, 2, 0, 2 − 2i) ⇒ {(−1, 2, 0, 2) , (1, 0, 0, −2)}


 −1     
1 −1 −1 1 0 1 −1 0 1 −1 −1 1 0 −1 1 0
  0 −1 1 0 0 1 
 0 0 2 0  0 1 
 0 0 2 0 
  
 = 
 1 1 0 0   1 1 0 0  1 1 0 0   0 0 0 −1 
0 0 2 −2 0 −2 0 1 0 0 2 −2 0 0 1 0

Ejemplo 4.6.6 Calcular la forma de Jordan de la matriz


 
2 0 −3
A =  0 −1 0 
1 0 −1

Solución. Operando de forma rápida vemos que el polinomio carac-


terı́stico coincide con el mı́nimo siendo

p (λ) = λ3 + 1 = mf (λ)

el conjunto de autovales esta formado por:

1 1 √ 1 1 √
 
σ (λ) = −1, − i 3, + i 3
2 2 2 2

calculamos los subespacios:

1. rang (A + I) = 2 por lo que la base del ker será


  
3 0 −3 x
 0 0 x=z=0
0   y  = 0 =⇒
y=µ
1 0 0 z

Bker(A+I) = {(0, 1, 0)}

1
√  
2. rang A − 2 − 12 i 3 I = 2
3

+ 12 i 3
  
2 0 √ −3 x
3 1
 0 −2 + 2i 3 0 √   y  = 0 =⇒
3 1
1 0 −2 + 2i 3 z
3 1

2 x + 2 ix 3√− 3z = 0
1
2 −3 + i 3√y = 0 =⇒
x − 32 z + 12 iz 3 = 0

las ecuaciones del ker = z = z, y = 0, x = 32 z − 12 iz 3


3 1 √
 
Bker(A−( 1 − 1 i√3)I ) = − i 3, 0, 1
2 2 2 2
Ejemplos. 63

1
√  
3. rang A − + 12 i 3 I = 2
2
 3 1 √  
2 − 2i 3 0 √ −3 x
 0 − 32 − 12 i 3 0 √   y  = 0 =⇒
1 0 − 23 − 12 i 3 z
3 1

2 x − 2 ix 3√− 3z = 0
1
2 −3 − i 3√y = 0 =⇒
x − 32 z − 12 iz 3 = 0

las ecuaciones del ker = z = z, y = 0, x = 32 z + 12 iz 3


3 1 √
 
Bker(A−( 1 + 1 i√3)I ) = + i 3, 0, 1
2 2 2 2

Por lo tanto la forma de Jordan de la matriz A será:



−1

0 √ 0
JA =  0 12 + 12 i 3 0 √ 
1 1
0 0 2 − 2i 3

de tal forma que  


2 0 −3
A =  0 −1 0 =
1 0 −1
1
√ √
− 12 i 3 1
+ 12 i 3
  
−1
 
0 2 2
0 √ 0 0 1 0√  √
1 1 1
=  1 0√ 0√   0 2 + 2i 3 0 √   1 0 2i 1 + i √3  √3 
0 − 13 i 3 1
3 i 3 0 0 1
2 − 1
2 i 3 1 0 1
2 i −1 + i 3 3
La forma de Jordan real de A es:
 1
√ −1  1
√ 
−1
  
0 0
√ 0 3/2 2 3 2 0 −3 0 3/2 2 3
1 1   0 −1
 0
2√ 2 3 = 1 0 0 0  1 0 0 
1 1 −1
0 −2 3 2
0 1 0 1 0 0 1 0

Ejemplo 4.6.7 Calcular la forma de Jordan de


 
−7 10 −8 14
 −7 9 −8 16 
A=  −8 10 −9 18 

−3 4 −3 5

Solución.
El polinomio caracterı́stico es

p(X) = X 4 + 2X 3 + 2X 2 + 2X + 1 = mf (X)

así pues
σ(X) = {i, −i, −1, −1}
calculamos los subespacios correspondientes viendo que:
64 Clasificación de Endomorfismos. Matrices de Jordan

1. rang(A − iI) = 3 por lo tanto


  
−7 − i 10 −8 14 x −7x − ix + 10y − 8z + 14t = 0
 −7 − −8
9 i 16    = 0 ⇒ −7x + 9y − iy − 8z + 16t = 0
 y 

 −8 10 −9 − i 18   z  −8x + 10y − 9z − iz + 18t = 0
−3 4 −3 5−i t −3x + 4y − 3z + 5t − it = 0

las ecuaciones del ker = x = 2t − it, y = 52 t − 12 it, z = 3t, t = t




 
5 1
Bker(A−iI) = 2 − i, − i, 3, 1
2 2

2. rang(A + iI) = 3 por lo tanto


  
−7 + i 10 −8 14 x −7x + ix + 10y − 8z + 14t = 0
 −7 −8
9 + i 16    = 0 ⇒ −7x + 9y + iy − 8z + 16t = 0
 y 

 −8 10 −9 + i 18   z  −8x + 10y − 9z + iz + 18t = 0
−3 4 −3 5+i t −3x + 4y − 3z + 5t + it = 0

las ecuaciones del ker = x = 2t + it, y = 25 t + 12 it, z = 3t, t = t




 
5 1
Bker(A−iI) = 2 + i, + i, 3, 1
2 2

3. rang(A + I) = 3entonces
  
−6 10 −8 14 x −6x + 10y − 8z + 14t = 0
 −7 10 −8 16
   = 0 ⇒ −7x + 10y − 8z + 16t = 0
 y 

 −8 10 −8 18  z  −8x + 10y − 8z + 18t = 0
−3 4 −3 6 t −3x + 4y − 3z + 6t = 0

las ecuaciones del ker = {y = 3t, t = t, z = 4t, x = 2t}

Bker(A+I) = {(2, 3, 4, 1)}

4. rang(A + I)2 = 2 por lo tanto


  
−12 16 −10 16 x −12x + 16y − 10z + 16t = 0
 −12 14 −8 14   y 
 −12x + 14y − 8z + 14t = 0

 −12 12 −6
 =0⇒
12  z  −12x + 12y − 6z + 12t = 0
−4 4 −2 4 t −4x + 4y − 2z + 4t = 0

las ecuaciones del ker = {t = 2x − y, z = 2x, y = y, x = x}

Bker(A+I)2 = {(1, 2, 2, 0) , (0, −1, 0, 1)}

La forma de Jordan es:


 
i 0 0 0
 0 −i 0 0 
JA = 
 0 0 −1 1 

0 0 0 −1
Ejemplos. 65

mientras que la matriz de paso es:


 
5 1
v1 = 2 − i, − i, 3, 1 ∈ ker(A − iI)
2 2
 
5 1
v2 = 2 + i, + i, 3, 1 ∈ ker(A + iI)
2 2
v4 = (1, 2, 2, 0) ∈ ker(A + I)2
v3 = (A + I)v4 = (−3, −5, −6, −1)

alternativamente obtenemos:

1 − 32 − 12 i 1 + 12 i − 32 − 12 i
   
−1 + 3i −1 − 3i 2 3 i 0 0 0
 −2 + 3i −2 − 3i 3 4   3 1 1 3 1
  0 −i 0 0   1 −2 + 2i 1 − 2i −2 + 2i
 

 −3 + 3i −3 − 3i 4 6   0 0 −1 1   0 0 1 −3 
−1 + i −1 − i 1 2 0 0 0 −1 1 −2 1 0

mientras que la matriz real de Jordan es:


 −1     
−1 3 2 3 −7 10 −8 14 −1 3 2 3 0 1 0 0
 −2 3 3 4   −7 9 −8 16   −2 3 3 4   −1 0 0 0 
    = 
 −3 3 4 6   −8 10 −9 18   −3 3 4 6   0 0 −1 1 
−1 1 1 2 −3 4 −3 5 −1 1 1 2 0 0 0 −1

Ejemplo 4.6.8 Calcular la forma de Jordan de la matriz


 
6 6 4 4
 −4 −2 0 −4 
A=  0 −2 −2

2 
−4 −4 −4 −2

Solución.
El polinomio caracterı́stico es:

P (X) = X 4 + 8X 2 + 16

así que los autovalores son σ(X) = {2i, −2i, 2i, −2i} , de esta forma los subespacios
son:

1. rang(A − 2iI) = 2
  
6 − 2i 6 4 4 x 6x − 2ix + 6y + 4z + 4t = 0
 −4 −2 − 2i 0 −4  y  −4x − 2y − 2iy − 4t = 0
    = 0 =⇒
 0 −2 −2 − 2i 2  z  −2y − 2z − 2iz + 2t = 0
−4 −4 −4 −2 − 2i t −4x − 4y − 4z − 2t − 2it = 0

las ecuaciones del ker = x = − 23 y − 12 iy − z − iz, y = y, z = z, t = y + z + iz




  
3 1
Bker(A−2iI) = − − i, 1, 0, 1 , (i, −1 − i, 1, 0)
2 2
66 Clasificación de Endomorfismos. Matrices de Jordan

2. rang(A + 2iI) = 2
  
6 + 2i 6 4 4 x 6x + 2ix + 6y + 4z + 4t = 0
 −4 −2 + 2i 0 −4  y  −4x − 2y + 2iy − 4t = 0
    = 0 =⇒
 0 −2 −2 + 2i 2  z  −2y − 2z + 2iz + 2t = 0
−4 −4 −4 −2 + 2i t −4x − 4y − 4z − 2t + 2it = 0

las ecuaciones del ker = y = y, z = z, t = y + z − iz, x = − 32 y + 12 iy − z + iz ,




  
3 1
Bker(A+2iI) = − + i, 1, 0, 1 , (−i, −1 + i, 1, 0)
2 2

Por lo tanto la forma de Jordan es:


 
2i 0 0 0
 0 2i 0 0 
JA =  
 0 0 −2i 0 
0 0 0 −2i

donde la matriz de paso esta formada por los vectores:


 1 5 1 5 
2 − 2i −i 2 + 2i i
 i 0
 1 1 1 1 1 1 1 1 −i 0 

2 + 2i 2 − 2i 2 − 2i
 + i 
2 2
2i i −2i −i

mientras que la forma real de Jordan es:


 −1   
1/2 −5/2 0 −1 6 6 4 4 1/2 −5/2 0 −1
 0
 1 0 0   −4 −2
  0 −4   0
  1 0 0  =
 1/2 1/2 1/2 1/2   0 −2 −2 2   1/2 1/2 1/2 1/2 
0 2 0 1 −4 −4 −4 −2 0 2 0 1
 
0 2 0 0
 −2 0 0 0 
=
 0

0 0 2 
0 0 −2 0
Capı́tulo 5
FORMAS BILINEALES Y CUADRÁTICAS.

5.1 Formas bilineales.


Definición 5.1.1 Aplicación bilineal. Sea (V, K) definimos

b : V × V −→ K
u, v 7−→ b(u, v)

verificnado:

1. b(u + v, w) = b(u, w) + b(v, w), b(λu, v) = λb(u, v)

2. b(u, v + w) = b(u, v) + b(u, w), b(u, λv) = λb(u, v)

Observación 5.1.1 Se dice que la aplicación b es bilineal si K = R y sesquilineal si


K = C.

1. Simétrica si b(u, w) = b(w, u)

2. antisimétrica si b(u, w) = −b(w, u)

3. alternada si b(u, u) = 0

Se observa que (2) ⇐⇒ (3) .

Denotamos por B (V ) el conjunto de todas las formas bilineales sobre V.


B (V ) tiene estructura de espacio vectorial definiendo las siguientes operaciones:

(f + g) (u, v) = f (u, v) + g (u, v)


(kf ) (u, v) = kf (u, v)

∀ f, g ∈ B (V ) y ∀ k ∈ K

Teorema 5.1.1 Sea V un espacio vectorial definido sobre un cuerpo K y sea BV ∗ =


{φ1 , ..., φn } una base del espacio dual de V , entonces BB = {fij ; i, j = 1, ..., n} tal
que
fij (u, v) = φi (u)φj (v)
entonces dim B (V ) = n2

Definición 5.1.2 Expresión analítica de la forma bilineal, unicidad respecto de una


base. Sea BV = {v1 , ...., vn } base de V y BW = {w1 , ...., wr } base de W , y sea
b : V × W −→ K una forma bilineal.

A = M(b, B) = aij = b(vi , wj )


68 Formas Bilineales y Cuadráticas.

determinan la forma bilineal b y

b(x, y) = xAy t

donde x ∈ V e y ∈ W.

Cambio de base.
C D
Sean BV −→ BV0 bases de V tal que la matriz de paso es C y sean BW −→ BW
0

bases de W tal que la matriz de paso es D, i.e.

(x1 , ....., xn ) = x01 , ....., x0n · C




(y1 , ....., yn ) = (y1 , ....., yn ) · D

entonces
y10
   
y1
 ..  t .. 
 . =D  . 
yn yn0
como
y10
  

b(x, y) = x · A · y t = x01 , ....., x0n · C · A · Dt  ...  = x0 · B · y 0t


     

yn0

donde B = CADt .

Observación 5.1.2 Sea


b : V × V −→ K
u, v 7−→ b(u, v)
C
y sea BV −→ BV0 entonces
B=C·A·Ct
tal que det C 6= 0 entonces decimos que A y B son congruentes.

Corolario 5.1.1 Si A = M(b, B) y A0 = M(b, B 0 ) entonces A = P t A0 P .

Definición 5.1.3 Matrices congruentes. Dos matrices A = M(b, B) y A0 = M(b, B 0 )


son congruentes si ∃ P ∈ M tal que A = P t A0 P donde la matriz P es no singular
i.e det (P ) 6= 0 y propiedades.

Teorema 5.1.2 Dos matrices son congruentes sii ∃! b y dos bases de V, B y B 0 tal
que A = P t A0 P.

Proposición 5.1.1 Dos matrices congruentes tienen el miso rango.

Definición 5.1.4 Rango de una aplicación bilineal es el rango de su matriz. Se


clasifican en:

1. b es degenerada si rang (b) < dim V.

2. b es no degenerada o regular si rang (b) = dim V


Formas bilineales. 69

Veamos más a fondo estas definiciones: Sea


b : V × V −→ K
u, v 7−→ b(u, v)
y sean
d : V −→ W ∗ y s : W −→ V ∗
de tal forma que

a ∈ V, [d(a)] (y) = b(a, y) ∀y ∈ W


b ∈ W, [s(b)] (x) = b(x, b) ∀x ∈ V

sean ahora las bases BV = {v1 , ..., vn } BW = {w1 , ...., wr } y BV∗ = {f1 , ..., fn } BW
∗ =

{g1 , ...., gr }. Sea A = (aij )n×r / aij = b(vi , wj ) entonces M(d) = A y M(s) = At .
Tenemos entonces las siguientes definiciones:

1. Decimos que b es degenerada por la derecha si ∃ a ∈ V, a 6= 0 / ∀y ∈ W =⇒


b(a, y) = 0.

2. Decimos que b es degenerada por la izquierda si ∃ b ∈ W, b 6= 0 / ∀x ∈ V =⇒


b(x, b) = 0.

3. Decimos que b es ordianria si no es degenerada ni por la derecha ni por la


izquierda.

Proposición 5.1.2 Decimos que:

1. b es degenerada por la derecha ⇐⇒ d es un monomorfismo.

2. b es degenerada por la izquierda ⇐⇒ s es un monomorfismo.

3. si V = W , b es ordianria ⇐⇒ s y d son isomorfismos.

Corolario 5.1.2 Decimos que:

1. b es degenerada por la derecha ⇐⇒ rang(A) = dim(V ) = n.

2. b es degenerada por la izquierda ⇐⇒ rang(A) = dim(W ) = r.

3. si V = W , b es ordianria ⇐⇒ det A 6= 0.

Definición 5.1.5 Sea (V, R) y b es simétrica si b(u, v) = b(v, u). Sea (V, C) y b
hermítica i.e. b(u, v) = b(v, u).

Observación 5.1.3 Tabla resumen:

R C
bilineal sesquilineal
simétrica hermítica

Lema 5.1.1 b es simétrica sii existe una base tal que la matriz de b respecto de dicha
base es simétrica i.e. b es simétrica si ∃B / A = M(b, B) de tal forma que A = At .
Una forma sesquilineal es hermítica sii A = At .
70 Formas Bilineales y Cuadráticas.

Definición 5.1.6 Sea (V, K), dim V = n y sea

b : V × V −→ K
u, v 7−→ b(u, v)

entonces u⊥v ⇐⇒ b(u, v) = 0.

Definición 5.1.7 Sea J ⊂ V entonces

J ⊥ = {w ∈ V / ∀v ∈ J; b(w, v) = 0 }

Observación 5.1.4 J ⊥ 6= ∅ y que J ⊥ ⊂ V. Si W, U ⊂ V se dice que W ⊥U si


W ⊂ U ⊥.

Definición 5.1.8 Subespacio


n o isotrópico. Decimos que L ⊂ V es un subespacio
⊥ ~
isotrópico si L ∩ L 6= 0 .

Definición 5.1.9 Vector isotrópico. Decimos que v ∈ V es isotrópico si b(v, n


v) o
=0

i.e. es ortogonal de si mismo. Si v ∈ L ⊂ V es isotrópico entonces L ∩ L 6= 0 .~

Observación 5.1.5 V = W ⊕ W ⊥ sii W es no isotrópico.

Observación 5.1.6 Sea b forma bilineal simétrica definida y B = {v1 , ....., vn } una
base ortogonal respecto a b i.e. vi ⊥vj ⇐⇒ b(vi , vj ) = 0 ∀i 6= j. Entonces la expresión
matricial de la forma b respecto de dicha base es diagonal.
 
b(v1 , v1 ) 0 ··· 0
 .. 
 0 . 
.
 
M(b, B) =  .. 
 b(v ,
i iv ) 

 0 0 
0 ··· 0 b(vn , vn )

Proposición 5.1.3 Si b es una forma bilineal simétrica definida, entonces existe una
base ortogonal del espacio V.

Definición 5.1.10 Decimos que la forma b es definida si:

1. definida positiva si b(vi , vi ) > 0

2. definida negativa si b(vi , vi ) < 0.

Proposición 5.1.4 Sea b : V × V −→ K una forma bilineal definida. Si B =


{v1 , ....., vn } es una base ortogonal entonces B 0 = {e1 , ....., en } es una base ortonormal
/
vi
ei = p
|b(vi , vi )|

Observación 5.1.7 Si b definida positiva entonces existe una baseB tal que M(b, B) =
I. Si b definida negativa entonces existe una base B tal que M(b, B) = −I
Formas bilineales. 71

5.1.1 Diagonalización de formas bilineales.


Proposición 5.1.5 Sea b una forma bilineal definida ordinaria (o regular i.e. V =
L ⊕ L⊥ ) entonces existe una base BV /
 
1
 .. 
 . 
 
 1 
M(b, B) =  

 −1 

 .. 
 . 
−1

i.e. es una matriz diagonal con todos los términos de la diagonal {±1} .

Demostración. La demostración es un poco pesadita y está dividida en


cuatro fases. Primero comprobar que la aplicación b es ordinaria, segundo que el
espacio se descompone en suma directa de subespacios no isótropos, tercera que
existe la base que hace la matriz diagonal y por último que ponemos normalizarla.

1. La aplicación b es ordinaria, entonces b(x, x) 6= 0. Supongamos lo contrario


∀x ∈ V b(x, x) = 0, tomo un x 6= 0 fijo y ∀y ∈ V

b((x + y), (x + y)) = b(x, x) + b(y, y) + 2b(x, y) = 0


=⇒ 2b(x, y) = 0 !¡

entonces la forma b es ordinaria.

2. Si ∀x ∈ V , la forma b es ordinaria i.e. b(x, x)


n o 6= 0 entonces L = L(x) es
⊥ ⊥ ~
no isótropo, i.e. V = L ⊕ L . Si L ∩ L 6= 0 entonces exsite un vector
z ∈ L ∩ L⊥ tal que z ∈ L y z ∈ L⊥ . Sea z = αx entonces b(z, z) = 0 / z ∈ L⊥ ,
b(z, z) = α2 b(x, x) = 0 ⇐⇒ α = 0 ya quenaloser b ordinaria b(x, x) 6= 0 ∀x ∈ V,
entonces z = 0 y por lo tanto L ∩ L⊥ = ~0 .

3. Existe la base BV⊥ . Por inducción sobre la dimensión del espacio. Si dim V = 1
es inmediato que existe BV = {x} , entonces supongamos que en todo espacio
vectorial de dim V = n − 1 y ∀ forma bilineal del mismo existe BV⊥ en las
condiciones dadas. Si dim V = n entonces ∃x ∈ V / b(x, x) 6= 0 y por lo
tanto puedo descomponer el espacio V en suma de subespacio no isótropos i.e.
V = L ⊕ L⊥ de tal forma que dim L = 1 y dim L⊥ = n − 1. Veamos que la
forma b restringida al subespacio L⊥ es bilineal simétrica y definida de L⊥ .
Sea BL⊥ = {v2 , ....., vn } base de L⊥ (base ortogonal respecto de bL⊥ ) entonces
también lo es respecto de b. Si llamo a v1 = x entonces BV = {v1 , v2 , ....., vn }
base de V ortogonal respecto de b i.e. b(vi , vj ) = 0, i 6= j de tal forma que
 
b(v1 , v1 ) 0 ···
M(b, B) = 
 .. .. 
. b(vi , vi ) . 
··· 0 b(vn , vn )
72 Formas Bilineales y Cuadráticas.

4. Es inmediato que ∃B 0 = {e1 , e2 , ....., en } tal que b(ei , ei ) = ±1, tal que
vi
ei = p
|b(vi , vi )|

como queríamos hacer ver.

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

Ejemplo 5.1.1 Sea V = R3 y b tal que su expresión matricial es:


 
0 1 1
A = M(b, B) =  1 0 1 
1 1 0

al ser el rango de la matriz 3 ya que el determinante de la matriz es distinto de


cero entonces la forma b es ordinaria por lo que existe x ∈ V / b(x, x) 6= 0 entonces
podemos descomponer el espacio V en suma directa de subespacios no isótropos i.e.
V = L ⊕ L⊥ . Sea v1 = (1, 1, 0) entonces b(v1 , v1 ) = 2 6= 0 entonces L = L(v1 ). El
espacio L⊥ esta formado por el conjunto de vectores de x ∈ V tal que b(v1 , x) = 0
i.e.
L⊥ = {x ∈ V / b(v1 , x) = 0} con v1 ∈ L
  
0 1 1 x
(1, 1, 0)  1 0 1   y  = 0
1 1 0 z

 x = −λ − 2µ
⇐⇒ x + y + 2z = 0 ⇐⇒ y=λ
z= µ

de tal forma que una base de L⊥ estará formada por los vectores BL⊥ = {(−1, 1, 0) , (−2, 0, 1)}
comprobamos que b(vi , vi ) 6= 0 y que b(vi , vj ) = 0 viendo que los vectores v2 y v3 no
son ortogonales con respecto a b, luego tenemos que buscar un vector v3 = (x, y, z)
que sea ortogonal a v2 = (−1, 1, 0) y continue perteneciendo a L⊥ i.e debe verificar

x + y + 2z = 0
x−y =0

esta última ecuación la hemos obtenido al imponer que b(v2 , v3 ) = 0, i.e.


  
0 1 1 x
(−1, 1, 0) 1 0 1
   y  = 0 = x − y.
1 1 0 z

Al resolver las ecuaciones obtenemos que v3 = (1, 1, −1) comprobando que b(v3 , v3 ) 6=
0. Hemos obtenido una base B 0 = {(1, 1, 0), (−1, 1, 0) , (1, 1, −1)} de V respecto de la
cual b tiene una expresión diagonal
 
2 0 0
M(b, B 0 ) =  0 −2 0  Pt AP=D
0 0 −2
Formas bilineales. 73
     
1 1 0 0 1 1 1 −1 1 2 0 0
 −1 1 0  1 0 1  1 1 1  =  0 −2 0 
1 1 −1 1 1 0 0 0 −1 0 0 −2
vi
Si normalizamos i.e. si ei = √ obtenemos una nueva base B 00 tal que
|b(vi ,vi )|
 
1 0 0
M(b, B 00 ) =  0 −1 0 
0 0 −1

comprobamos que:
 
00 1 1 1
B = √ (1, 1, 0), √ (−1, 1, 0) , √ (1, 1, −1)
2 2 2
ya que
b(v1 , v1 ) = 2, b(v2 , v2 ) = −2 = b(v3 , v3 )
como podemos comprobar facilmente:
      
1 1 0 0 1 1 1 −1 1 1 0 0
1  1
√ −1 1 0  1 0 1  √  1 1 1  =  0 −1 0 
2 1 1 −1 1 1 0 2 0 0 −1 0 0 −1

por último resaltamos que la matriz original A (de rango 3) es diagonlaizable y que
su matriz diagonal es:
   1 1   
0 1 1 − 3 3 −1 −1 0 0 1 −2 1
 1 0 1  =  −1 1 0  0 2 0  1 1 1 
3 3
2 1
1 1 0 3 3 1 0 0 −1 −1 1 0

donde el polinomio característico es: p(X) = X 3 − 3X − 2, el mínimo p(X) = −2 −


X + X 2 , los autovectores son σ(X) = {2, −1, −1} y los subespacios característicos:

V2 = {(1, 1, 1)} y V−1 = {(−1, 0, 1) , (−1, 1, 0)}

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

Definición 5.1.11 Radical o núcleo de b. Sea b : V × V −→ K una forma bilineal


simétrica definimos el nucleo de b como:

N = {v ∈ V / b(v, w) = 0, ∀w ∈ V }

también se llama núcleo. Se n


define
o el radical por la derecha y por la izquierda. La
~
forma b es ordinaria sii N = 0 .

Proposición 5.1.6 Sea B = {v1 , ....., vn } una base de V, entonces u ∈ rad(b) sii
b(u, vi ) = 0. Además:

1. rad(b) ⊂ V

2. dim(rad(b)) = dim V − rang(b)

3. b es no degenerada sii rad(b) = {0}


74 Formas Bilineales y Cuadráticas.

Definición 5.1.12 Definimos la forma

b̄ : V /N × V /N −→ K
(x + N, y + N ) 7−→ b̄(x + N, y + N ) = b(x, y)

Proposición 5.1.7 La aplicación b̄ es bilineal simétrica y ordinaria en V /N .

Proposición 5.1.8 Sea b una forma bilineal simétrica de V en K, entonces existe


una base ortogonal de b /
 
1
 .. 

 . 

M(b, B) = 
 −1 

 . . 
 . 
0

Demostración. Sea b : V /N × V /N −→ R ordinaria. Sabemos que existe


una base orotogonal de V /N

B 0 = {v1 + N, ....., vr + N } / b(vi + N, vi + N ) = ±1

pero como b(vi +N, vi +N ) = b(vi , vi ) = ±1 ∀i = 1, ..., r. Sea BN = {vr+1 , ...., vn } una
base cualquiera del nucleo / b(vj , vk ) = 0. Tomo como base B = {v1 , ...., vr , vr+1 , ...., vn }
de tal forma que

b(vi , vi ) = ±1 ∀i = 1, ..., r
b(vj , vk ) = 0 ∀j, k = r + 1, ..., n

entonces la matriz de b respecto de sta base es de la forma:


 
1
..
.
 
 
 

 1 


 −1 

M(b, B) = 
 .. 
 . 


 −1 


 0 

 .. 
 . 
0

como queríamos hacer ver.

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

Ejemplo 5.1.2 Sea la matriz A asociada al forma bilinela b


 
1 1 2
A= 1 2 3 
2 3 5
Formas bilineales. 75

queremos ver la forma diagonal que tiene respecto de la base B que debemos encontrar.
En primer lugar debemos calcular el nucleo de b i.e.
   
1 1 2 x  x + y + 2z = 0
 1 2 3   y  = 0 ⇐⇒ x + 2y + 3z = 0
2 3 5 z 2x + 3y + 5x = 0

encontrando que unna base del nucleo esta generada por


BN = {−λ, −λ, λ}
podemos tomar como base por ejemplo BN = {−1, −1, 1} . Tomamos ahora un v1 =
(1, 0, 0) ∈
/ N y compruebo que efectivamente b(v1 , v1 ) 6= 0, i.e.
  
1 1 2 1
(1, 0, 0) 1 2 3
   0 =1
2 3 5 0
y busco un v2 tal que v1 ⊥ v2 y b(v2 , v2 ) 6= 0 (v2 tampoco puede pertener al núcleo
N ) i.e.   
1 1 2 x
(1, 0, 0) 1
 2 3   y  = 0 ⇐⇒ x + y + 2z = 0
2 3 5 z
como v2 ∈/ N entonces el vector v2 puede ser de la forma v2 ∈ {(−λ, λ, 0) , (−2µ, 0, µ)}
si por ejempl otomamos v2 = (−2, 0, 1) entonces la base formada por los vectores
B = {(1, 0, 0) , (−2, 0, 1) , (−1, −1, 1)} hace que la matriz de b respecto de ella sea de
la forma:  
1
 1 
0
como se comprueba con facilidad.
∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
Proposición 5.1.9 Todas las matrices asociadas a una misma forma bilinela simétrica
tienen el mismo rango.
Teorema 5.1.3 Inercia o de Silvester. Es invariante el número de {1, −1, 0} en la
matriz diagonal asociada a la forma b.
Demostración. Sea b la forma tal que con respecto de la base
B = {v1 , ....., vp , vp+1 , ......., vr , vr+1 , ......., vn }
tiene una expresión metricial de la forma
 
m1
..
.
 
 
 

 mp 


 −mp+1 

M(b, B) = 
 .. 
 . 


 −mr 


 0 

 .. 
 . 
0
76 Formas Bilineales y Cuadráticas.

y sea B 0 = w1 , ..., wp0 , wp0 +1 , ...., wr0 , wr0 +1 , ...., wn0




 
d1
..
.
 
 
 

 dp0 


 −dp0 +1 

0
M(b, B ) = 
 .. 
 . 


 −dr0 


 0 

 .. 
 . 
0

tenemos que demostrar que p = p0 . Sabemos que el rango de bes r y que N =


L(vr+1 , ...., vn ) = L(wr0 +1 , ...., wn0 ).
Supongamos que p < p0 . Sea L = L (vp+1 , ...., vr , vr+1 , ...., vn ) y sea x ∈ L /
x = 0v1 + .... + 0vp + xp+1 vp+1 + .... + xr vr + 0vr+1 + .... + 0vn de tal forma que

b(x, x) = −mp+1 x2p+1 − .... − mr xr ≤ 0

x ∈ L =⇒ x ∈ / N si x 6= 0 entonces b(x, x) < 0. Sea M = L (w1 , ......., wn0 ) y sea


y ∈ M tal que

y = y1 w1 + ... + yp0 wp0 + yp0 +1 wp0 +1 + ... + yn0 wn0

tal que
b(y, y) = y12 d1 + ... + yp20 dp0 ≥ 0
con y ∈
/ N si y 6= 0 entonces b(x, x) > 0. Atendiendo a ls fórmulas de Grassmann,
vemos que

dim(L + M ) = dim L + dim M − dim(L ∩ M ) = (r − p) + n − r + p0 − dim(L ∩ M ) =




= n + p0 − p − dim(L ∩ M ) ≤ n


entonces la dim(L ∩ M ) > 0, ya que (p0 − p) ≥ 0 por hipótesis. Entonces existe un


z 6= 0 tal que z ∈ L ∩ M , con z ∈ L, z ∈ / N entonces b(z, z) < 0 y z ∈ M, z ∈ / N
entonces b(z, z) > 0 pero esto es imposible entonces p ≥ p0 .
Supoongamos ahora que p0 < p haciendo el mismo razonamiento que antes
llegaríamos a la conclusión de que p ≤ p0 y por lo tanto concluimos que necesariamente
p = p0 como queríamos demostrar.

5.2 Formas cuadráticas.


Asociada a toda forma bilineal aparece su forma cuadrática definida de la siguiente
manera.

Definición 5.2.1 Sea b : V × V −→ K una forma bilineal, definimos su forma


cuadrática como la aplicación q tal que
q : V −→ K
v 7−→ b(v, v)
y verificando:
Ejemplos. 77

1. 2b(v, w) = q(v + w) − q(v) − q(w) forma polar de b,


2. en el caso hermítico
4b(v, w) = q(v + w) − q(v − w) + i (q(v + iw) − q(v − iw))

3. q(λv) = b(λv, λv)

Definición 5.2.2 Forma polar. La forma bilineal simétrica bq determinada por q se


llama forma polar de q. rang(q) = rang(b) = rang(A).

Definición 5.2.3 Definida etc...




 def. positiva q(v) > 0
semidef. pos q(v) ≥ 0

q

 def. negativ q(v) < 0
semidef. neg q(v) ≤ 0

Definición 5.2.4 Decimos que es indefinida si q(v) > 0 y q(w) < 0.

Criterio 5.2.1 Criterio de Sylvester sobre la positividad de una forma bilineal.

1. Para que una forma cuadrática b(x, x) sea definida positiva es necesario y su-
ficiente que sean positivos todos los menores “angulares” de la matriz A =
M(b, B) i.e. los menores

a11 a12
∆1 = a11 > 0, ∆2 = > 0, ....., ∆n = |A| > 0
a21 a22
deben ser positivos.
2. Para que una forma sea definida negativa es necesario y suficiente que se veri-
fique
a11 a12
∆1 = a11 < 0, ∆2 = > 0....., ∆n = |A| ≶ 0
a21 a22
i.e. que se alternen los signos de los menores angulares de la matriz A siendo
de signo negativo el primero i.e. ∆1 = a11 .

5.3 Ejemplos.
Ejemplo 5.3.1 Diagonalizar la aplicación bilineal dada por
 
2 −5 0
A =  −5 −1 3 
0 3 −6
Solución.
En primer lugar calculaomos el polinomio caracteristico viendo que es igual a
p(X) = X 3 + 5X 2 − 42X − 144
y que por lo tanto los autovalores son:
σ(X) = {−8, 6, −3}
pasando a calcular cada uno de los subespacios:
78 Formas Bilineales y Cuadráticas.

1. rang(A + 8I) = 2 entonces dim ker(A + 8I) = 1 como se ve en:


  
10 −5 0 x 10x − 5y = 0
 −5 7 3   y  = 0 =⇒ −5x + 7y + 3z = 0
0 3 2 z 3y + 2z = 0

la ecuación del ker es y = y, z = − 32 y, x = 12 y , mientras que una base es:




Bker(A+8I) = {(1, 2, −3)}

2. rang(A − 6I) = 2
  
−4 −5 0 x −4x − 5y = 0
 −5 −7 3   y  = 0 =⇒ −5x − 7y + 3z = 0
0 3 −12 z 3y − 12z = 0

las ecuaciones del ker son: y = y, x = − 45 y, z = 14 y , mientras que una base es:


Bker(A−6I) = {(−5, 4, 1)}

3. rang(A + 3I) = 2
  
5 −5 0 x 5x − 5y = 0
 −5 2 3   y  = 0 =⇒ −5x + 2y + 3z = 0
0 3 −3 z 3y − 3z = 0

las ecuaciones del ker son:{x = z, z = z, y = z} ,mientras que una base es:

Bker(A+3I) = {(1, 1, 1)}

Por lo tanto la matriz diagonal será:


 
−3 0 0
DA =  0 6 0 
0 0 −8

y la matriz de paso esta formada por los vectores:

B = {(−5, 4, 1) , (1, 1, 1) , (1, 2, −3)}

de tal forma que


     −1
2 −5 0 −5 1 1 6 0 0 −5 1 1
 −5 −1 3 = 4 1 2   0 −3 0  4 1 2 
0 3 −6 1 1 −3 0 0 −8 1 1 −3

mientras que P t AP = D
     
−5 4 1 2 −5 0 −5 1 1 252 0 0
 1 1 1   −5 −1 3  4 1 2  =  0 −9 0 
1 2 −3 0 3 −6 1 1 −3 0 0 −112
Ejemplos. 79

con
 −1  5 2 1

−5 1 1 − 42 21 42
 4 1 1 1 1
2  = 3 3 3

1 1 3
1 1 −3 14 7 − 14
observamos además cada autovector es ortogonal i.e.
  
 2 −5 0 −5
1 1 1  −5 −1 3  4  = 0
0 3 −6 1

etc... . Si normalizamos la base i.e. si


 
00 1 1 1
B = √ (−5, 4, 1) , (1, 1, 1) , √ (1, 2, −3)
252 3 112

esta es la base buscada. Por lo tanto la matriz diagonal queda P t AP = D: (se han
simplificado las expresiones para que no aparezcan raices en el denominador)
 5
√ 2
√ √ 1
 5
√ 1
√ 
1  
− 42 7 21 7 7 42 2 −5 0 − 42 √7 3 28 √7 1 0 0
1 1 1  2 1 1

√3 √3 √3 −5 −1 3 
21 √7 3 14 √7
 =  0 −1 0 
1 1 3 3 −6 1 1 3 0 −1
14 7 − 28 7
28 7
0 42 7 3 − 28 7 0

Podemos comprobar que esta matriz es diagonalizable y que la matriz diagonal


es:
     −1
2 −5 0 −5 1 1 6 0 0 −5 1 1
 −5 −1 3 = 4 1 2   0 −3 0  4 1 2 
0 3 −6 1 1 −3 0 0 −8 1 1 −3

el polinomio característico y el mínimo coinciden:

p(X) = X 3 + 5X 2 − 42X − 144 = mf (X),

los autovalores son σ(f ) = {6, −3, −8}, y sus correspondientes autovectores son:

V6 = {(−5, 4, 1)} , V−3 = {(1, 1, 1)} , V−8 = {(1, 2, −3)}

Observación 5.3.1 En este caso coincide que la matriz es diagonlaizable, pero como
veremos exsiten casos de aplicaciones bilinelaes no diagonalizables y sin embargo
existir bases respecto de las cuales la forma es diagonal.

Ejemplo 5.3.2 Dada la forma bibilineal A, queremos encontrar una base respecto
de la cual la expresión del endomorfismo tenga una expresión diagonal ±1, 0.
 
3 6 4
A= 6 9 6 
4 6 4
80 Formas Bilineales y Cuadráticas.

Solución.
el espacio hay que descomponerlo

V = L ⊕ L⊥ ⊕ ker f

en primer lugar observamos que A tiene rango 2 por lo tanto el ker A 6= 0


  
3 6 4 x 3x + 6y + 4z = 0
 6 9 6   y  = 0 =⇒ 6x + 9y + 6z = 0
4 6 4 z 4x + 6y + 4z = 0

las euaciones del ker son, z = − 23 y, x = 0, y = y , y una base es




Bker A = {(0, 2, −3)}

Tomamos un vector cualquiera e1 = {(1, 0, 0)} de tal forma que L = L(e1 )


  
 3 6 4 1
1 0 0  6 9 6  0  = 3
4 6 4 0

i.e. fL > 0 y calculamos el subespacio ortogonal a L i.e.


  
 3 6 4 x
1 0 0  6 9 6   y  = 3x + 6y + 4z
4 6 4 z

L⊥ = {3x + 6y + 4z = 0}
las ecuaciones de L⊥ son
 x = −2λ − 43 µ


L = y=λ
z=µ

por ejemplo una base de L⊥ puede ser

BL⊥ = {(2, −1, 0) , (0, −2, 3)}

comprobando que
  
 3 6 4 2
2 −1 0  6 9 6   −1  = −3
4 6 4 0

observando que (0, −2, 3) ∈ ker f. De esta forma si

B = {(1, 0, 0) , (2, −1, 0) , (0, −2, 3)}

tenemos que  
3 0 0
M (f, B) =  0 −3 0 
0 0 0
Ejemplos. 81

si normalizamos entonces
 
1 0 0
M (f, B 0 ) =  0 −1 0 
0 0 0
siendo     
0 1 2 −1
B = √ , 0, 0 , √ , √ , 0 , (0, −2, 3)
3 3 3

Ejemplo 5.3.3 Sea (mismo enunciado que antes)


 
1 2 3 0
 2 3 6 0 
A=  3

6 5 2 
0 0 2 −1

Solución.

V = L ⊕ L⊥ ⊕ ker f
Vemos que dim ker f = 1 ya que
  
1 2 3 0 x x + 2y + 3z = 0
 2 3 6 0   y  2x + 3y + 6z = 0
   = 0 =⇒
 3 6 5 2 
 z  3x + 6y + 5z + 2t = 0
0 0 2 −1 t 2z − t = 0

las ecuaciones del ker : {z = z, y = 0, x = −3z, t = 2z}, una base esta formada por

Bker f = {(−3, 0, 1, 2)}

El subespacio L esta generado por e1 i.e. L = L (e1 ) de tal forma que


  
1 2 3 0 1
 2 3 6 0  0 
1 0 0 0   3 6 5
  = 1
2  0 
0 0 2 −1 0

Calculamos el esoacio ortogonal L⊥


  
1 2 3 0 x
 2 3 6 0  y
  
1 0 0 0   3 6
 = x + 2y + 3z
5 2  z 
0 0 2 −1 t

L⊥ = {x + 2y + 3z = 0}
las ecuaciones parametricas de


 x = −2λ − 3µ
y=λ

L⊥ =
 z=µ

t=α

82 Formas Bilineales y Cuadráticas.

una base estará formada por:

BL⊥ = {(−2, 1, 0, 0) , (−3, 0, 1, 0) , (0, 0, 0, 1)}

observando que
  
1 2 3 0 −2
 2 3 6 0 
  1  = −1
 
−2 1 0 0 
 3 6 5 2   0 
0 0 2 −1 0
  
1 2 3 0 −3
 2 3 6 0   0 
−3 0 1 0 
 3
  = −4
6 5 2  1 
0 0 2 −1 0
  
1 2 3 0 0
 2 3 6 0   0 
0 0 0 1    = −1
 3 6 5 2 
 0 
0 0 2 −1 1
Podemos tomar la base formaba por
 

 

B = (1, 0, 0, 0), (−2, 1, 0, 0) , (0, 0, 0, 1), (−3, 0, 1, 2)
| {z } |
 {z } | {z }

L L⊥ ker f

V = L ⊕ L⊥ ⊕ ker f
de tal forma que
L ⊥ L⊥ ⊥ ker f
son ortogonales entre si y respecto de la forma A.

Ejemplo 5.3.4 Dada la forma bilineal


 
3 1 −2
B= 1 2 1 
−2 1 0

Solución.
vemos que la forma cuadrática asociada es:

q = 3x2 + 2xy − 4xz + 2y 2 + 2yz

y que existe un vector e3 = (0, 0, 1) tal que

b(e3 , e3 ) = 0

i.e   
 3 1 −2 0
0 0 1  1 2 1  0  = 0
−2 1 0 1
Ejemplos. 83

sin embargo rangB = 3. Nos piden calcular la ecuación del subespacio generado por
los vectores L = L {(1, 3, 0) , (−1, 1, 2)} . De forma trivial calculamos que
 
x y z
L = det  1 3 0  = 0 = 3x − y + 2z
−1 1 2

siendo BL = {(1, 3, 0) , (−1, 1, 2)} , las ecuaciones del subespacio ortogonal son por lo
tanto   
 3 1 −2 x
1 3 0  1 2 1   y  = 6x + 7y + z
−2 1 0 z
  
 3 1 −2 x
−1 1 2  1 2 1   y  = −6x + 3y + 3z
−2 1 0 z

  x = 3λ
⊥ 6x + 7y + z = 0
L := =⇒ y = −4λ
−6x + 3y + 3z = 0
z = 10λ

siendo BL = {(3, −4, 10)} . Comprobando trivialmente que ambos espacios son NO
isótropos i.e. L ∩ L⊥ = ~0, simplemente viendo que los vectores son LI i.e.
 
3 −4 10
det  1 3 0  = 66 6= 0
−1 1 2

Ejemplo 5.3.5 Probar que la matriz A no es diagonalizable pero sin embargo existe
una matriz P invertible / P t AP es diagonal.
La matriz A está dada por
 √ √ 
√ 8 i 2 i 2
A=  i√2 3 1 
i 2 1 3

Solución.
Vemos que el polinomio caracterı́stico es:

p(X) = X 3 − 14X 2 + 60X − 72 = mf (X)

y que por lo tanto σ(f ) = {2, 6, 6} , vemos ahora que la dimensión de cada uno de
los subespacios invariantes no coincide con la multiplicidad de su correspondiente
autovalor ya que dim(ker(f − 2I)) = 1 pero dim(ker(f − 6I)) = 1 y para que sea
diagonalizable debería ser 2. Sin embargo podemos comprobar que la forma de Jordan
es:
√ √   √ √ 
0 2i 2 12 i 2
  
√8 i 2 i 2 2 0 0 √ 0 −1 1
 i 2
√ 3 1  =  − 12 −2 1 
2 0 6 1   − 18 i√2 − 18 − 18 
1 1
i 2 1 3 2 −2 2 0 0 6 − 21 i 2 1
2
1
2
84 Formas Bilineales y Cuadráticas.

Entonces vamos a operar como en ejercicios anteriores. Sea la matriz


 √ √ 
√ 8 i 2 i 2
A =  i√2 3 1 
i 2 1 3

de rango √
3 entonces
√  la forma bilineal es ordinaria. Tomamos un vector cualquiera
v1 = 8, i 2, i 2 , siendo L = L(v1 ), de tal forma que b(v1 , v1 ) = 432
 √ √  
√ √  √8 i 2 i 2 √8
8 i 2 i 2  i√2 3 1   i√2  = 432
i 2 1 3 i 2

de esta forma buscamos una descomposición del espacio tal que V = L ⊕ L⊥ . El


subespacio L⊥ esta generado por:
 √ √  
√ √  √ 8 i 2 i 2 x
8 i 2 i 2  i√2 3 1   y =0
i 2 1 3 z
 √ √
i 2 i 2
√ √  x = − 5 λ − − 5 µ
60x + 12i 2y + 12i 2z = 0 ⇐⇒ y= λ

z= µ
n √   √ o
luego una base de L⊥ está generada por: BL⊥ = − i 5 2 , 1, 0 , − i 5 2 , 0, 1 com-
probamos que son ortogonales i.e. b(v2 , v3 ) = 0
√ √  √ 
−i 2

 √  √8 i 2 i 2 5 29
− i 5 2 1 0  i√2 3 1  0 =
25
i 2 1 3 1

como no son ortogonales debemos buscar un vector v3 ∈ L⊥ / b(v2 , v3 ) = 0 i.e.


√ √
60x + 12i 2y + 12i 2z = 0
3 √ 17 7
− i 2x + y + z = 0
5 5 5
resoviendo este sistema encontramos que

10 √
 
79
v3 = i 2, 1, −
29 29

comprobamdo ahora que:


 √ √  10
√ 
 √  √8 i 2 i 2 29 i 2
− i 52 1 0  i 2
√ 3 1  1 =0
79
i 2 1 3 − 29

de esta forma hemos obtebido una base de V


(
 √ √  √ !  )
i 2 10 √ 79
BV = 8, i 2, i 2 , − , 1, 0 , i 2, 1, −
5 29 29
Ejemplos. 85

de tal forma que P t AP = D veámoslo:


√ √  √ √  √ √ 
i 2 10

√ 8 i 2 i 2 √ 8 i 2 i 2 8 − 29 i 2
 −1i 2  √ 5
1 0   i√2 3 1  i 2 1 1 =

5 √ √
10 79
29 i 2 1 − 29 i 2 1 3 i 2 0 − 79
29

 
432 0 0
79
= 0 25 0 
17 064
0 0 841

si normalizamos esta base i.e.


vi
ei = p
|b(vi , vi )|

entonces obtenemos la siguiente matriz:


 
1 0 0
 0 1 0 
0 0 1

por último resaltar que la matriz encontrada P es invertible como se puede comprobar:
 √ √ −1  5 15
√ 145
√ 
√ 8 i 2 i 2 √36 − 79 i 2 2844 i 2
 −1i 2 1 0  = 1 85 29 
− 1422
5 √ 36 i√2 79
10 79 1 35 551
29 i 2 1 − 29 36 i 2 79 − 1422

Ejemplo 5.3.6 Sea la forma cuadrática definida sobre R respecto de la base canónica:

q(x) = x21 − 3x22 − 4x23 + λx24 + 2µx1 x2 λ, µ ∈ R

queremos hallar la forma polar de q, y escribir la matriz respecto de la base canónica.


Definir el rango de q según los valores de λ, µ y por último descomponer q en suma
de cuadrados y encontrar su signatura.

Solución.
Vemos que la forma forma pola de q es:

2f (x, y) = q(x + y) − q(x) − q(y)

i.e.
h i
2f (x, y) = (x1 + y1 )2 − 3 (x2 + y2 )2 − 4 (x3 + y3 )2 + λ (x4 + y4 )2 + 2µ (x1 + y1 ) (x2 + y2 ) −
− x21 − 3x22 − 4x23 + λx24 + 2µx1 x2 − y12 − 3y22 − 4y32 + λy42 + 2µy1 y2
   

= x1 y1 + λx4 y4 − 3x2 y2 − 4x3 y3 + µy1 x2 + µx1 y2


= x1 (y1 + µy2 ) + x2 (µy1 − 3y2 ) − 4x3 y3 + λx4 y4
86 Formas Bilineales y Cuadráticas.

por lo tanto
 
y1 + µy2
 µy1 − 3y2 
(x1 , x2 , x3 , x4 )   por lo tanto
 −4y3 
λy4
  
1 µ 0 0 y1
 µ −3 0 0   y2
  
(x1 , x2 , x3 , x4 )  
 0 0 −4 0   y3 
0 0 0 λ y4

de esta forma obtenemos que:


 
1 µ 0 0
 µ −3 0 0 
M(f, B) =  
 0 0 −4 0 
0 0 0 λ

el determinante es det (A) = 12λ + 4µ2 λ = 4λ(3 + µ2 ) pudiendo distinguir los sigu-
ientes casos.

1. si λ 6= 0 entonces el rango de A es 4

2. si λ = 0 entonces el rango de A es 3

Por último podemos ver que

q(x) = (x1 + µx2 )2 + −µ2 − 3 (x2 )2 − 4 (x3 )2 + λ (x4 )2 =




= x21 − 3x22 − 4x23 + λx24 + 2µx1 x2

la signatura depende de λ por lo tanto

1. si λ 6= 0 entonces la signatura es: (+, −, −, sig (λ))

2. si λ = 0 entonces la signatura es: (+, −, −, 0) .

Ejemplo 5.3.7 Dada la forma bilinela A


 
1 0 1 0
 0 2 −1 0 
A=  −1

1 0 −1 
1 0 3 4
queremos:

1. ver que el subespacio L es no isótropo tal que



x−y−z =0
L=
2x − y − t = 0
Ejemplos. 87

2. Ecuaciones y base de L⊥

3. M (f, B 0 ) / B 0 = {BL , BL⊥ }

Solución.
En primer lugar vemos que r(A) = 4. Una base del subespacio L está dada
por: 
 
 x=λ
x−y−z =0 y=µ

L= =⇒ L =
2x − y − t = 0 
 z =λ−µ
t = 2λ − µ

BL = {(1, 0, 1, 2) , (0, 1, −1, −1)}


Como en ejemplos anteriores el subespacio L⊥ viene dado por:
  
1 0 1 0 x
 0 2 −1 0   y 
1 0 1 2   −1
   = 2x + y + 7z + 7t = 0
1 0 −1   z 
1 0 3 4 t
  
1 0 1 0 x
 0 2 −1 0  y 
 
0 1 −1 −1   −1
 = y − 4z − 3t = 0
1 0 −1   z 
1 0 3 4 t

así pues las ecuaciones de L⊥



 
 x = −7λ − 5µ
2x + y + 7z + 7t = 0 y = 4λ + 3µ

L⊥ = =⇒ L⊥ =
y − 4z − 3t = 0  z=λ

t=µ

BL⊥ = {(−7, 4, 1, 0) , (−5, 3, 0, 1)}


simplemente comprobamos que el determinante de todos estos vectores es 6= 0

−7 −5 1 0

4 3 0 1
= 24
1
0 1 −1

0 1 2 −1

por último  
23 −13 0 0
 −10 8 0 0 
M (f, B 0 ) = 
 6= 0 6= 0 81 66 

6= 0 6= 0 47 42
vemos que hemos elegido los vectores de L⊥ por la izquierda y que como A no es
simétrica entonces vi Avjt 6= vj Avit .
88 Formas Bilineales y Cuadráticas.
Capı́tulo 6
ESPACIOS VECTORIALES EUCLı́DEOS.

6.1 Espacios vectoriales euclı́deos.


Definición 6.1.1 Producto escalar. Forma bilineal simétrica (sesquilineal hermı́tica)
que verifica las siguientes propiedades:
g : V × V −→ K
u, v 7−→ g(u, v)

1. simétrica g(u, v) = g(v, u)

2. def. positiva g(u, v) ≥ 0

3. nula g(v, v) = 0 sii v = 0

Definición 6.1.2 Espacio euclideo (resp. unitario) (V, g) con g producto escalar.

Definición 6.1.3 Norma. (V, k·k) es una aplicación

k·k : V −→ R
v 7−→ kvk
verificando:

1. kvk = 0 ⇐⇒ v = 0

2. kkvk = |k| kvk

3. kv + uk ≤ kvk + kuk triangular.

Proposición 6.1.1 Desidualdad de Cauchy-Schwarz.

|g(u, v)|2 ≤ g (u, u) g (v, v)

Proposición 6.1.2 El prodcuto escalar induce una norma.


p
kuk = g(u, u)

Definición 6.1.4 Métrica en (V, g)

d : V × V −→ R
u, v −→ d(u, v)
se observa que
d(u, v) = kv − uk
verificando:
90 Espacios vectoriales euclı́deos.

1. d(u, v) = 0 ⇐⇒ u = v

2. d(u, v) = d(v, u)

3. d(u, w) ≤ d(u, v) + d(v, w)

Definición 6.1.5 Ángulo entre vectores.

g(u, v)
cos α =
kuk kvk

de tal forma que se define


g(u, v) = kuk kvk cos α

Definición 6.1.6 Vector unitario sii g(u, u) = 1 y decimos que u⊥v (vectores oro-
togonales) sii g(u, v) = 0

Proposición 6.1.3 Todo conjunto de vectores ortogonales dos a dos es LI

Proposición 6.1.4 Todo (V, g) tiene al menos una base ortogonal.

Teorema 6.1.1 Gramm-Schmidt. En (V, g) existe siempre una base ortonormal de


vectores.

Demostración. Por inducción sobre la dimensión del espacio V . Sea B =


{e1 , ......, en } una base cualquiera del espacio V. Consideramos los subespacios

V1 = he1 i ⊂ V2 = he1 , e2 i ⊂ ...... ⊂ Vn = he1 , ......, en i = V

El subespacio V1 tiene una base ortonormal que es:


e1
u1 = p
g(e1 , e1 )

supongamos que B 0 = {u1 , ......, ur } es una base ortonormal de Vr . Construyamos una


base ortonormal de Vr+1 = hu1 , ......, ur , er+1 i de la siguiente manera: sea

u0r+1 = er+1 − k 1 u1 + ..... + k r ur




ortogonal a cada ui con i = 1, ..., r

0 = g(u0r+1 , ui ) = g(er+1 , ui ) − k i

entonces
k i = g(er+1 , ui )
de esta forma los vectores u1 , ......, ur , u0r+1 son LI y por lo tanto forman base de


Vr+1 . Tomo ahora


u0r+1
ur+1 = q
g(u0r+1 , u0r+1 )

de esta forma la base {u1 , ......, ur , ur+1 } es ortonormal. Por inducción completamos
el razonamiento hasta obtener una base de V.
Espacios vectoriales euclı́deos. 91

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
Observación 6.1.1 Este toerema es fundamental para varias de las ramas de la
matemática como el análisis de Fourier etc... veamos un ejemplo.
Ejemplo 6.1.1 En el espacio C([a, b]) consideramos el producto interior definido por
Z b
hf, gi = f (x)g(x)dx
a
y comprobamos que en C([−π, π]) la base de funciones B = {1, cos t, sin t, cos 2t, sin 2t, ....}
son ortogonales dos a dos con respecto al producto interior anteriormente definido i.e.
Z π
hcos nt, sin mti = 0 = (cos nt · sin mt) dt =
Z π −π
1 π
Z
1
sin (m + n) tdt − sin (n − m) tdt
2 −π 2 −π
Pensemos ahora en el desarrollo de Fourier de la función f (x) = x2 en el intervalo
x ∈ (−π, π)

a0 X
f (x) ≈ + (ak cos kx + bk sin kx)
2
k=1
considerando la base de funciones B = {1, cos x, sin x, cos 2x, sin 2x, ....}, como la
función la función es par entonces se observa que bk = 0. La idea es la de ir calculando
las respectivas proyecciones de la función f con respecto a cada uno de los elementos
de la base i.e. Rπ 2 2 3
hf, 1i x dx 3π π2
proy1 f = = R−ππ = =
h1, 1i −π 1dx
2π 3
en la teoría de series de Fourier se define
1 π 1 π 2 2π 2
Z Z
a0 = f (x)dx = x dx =
π −π π −π 3
vamos viendo la analgía, i.e. a20 = proy1 f, mientra que el término ak se define como:
1 π 1 π 2
Z Z
ak = f (x) cos kxdx = x cos kxdx
π −π π −π
mientras que la proyección de f con respecto a cos x se define como
Rπ 2 Rπ 2
hf, cos xi x cos xdx x cos xdx
proycos x f = = R−ππ 2
= −π
hcos x, cos xi −π cos xdx
π

i.e. a1 = proycos x f, y así sucesivamente de tal forma que


f (x) ≈ proy1 f + proycos x f cos x + .....
∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
Proposición 6.1.5 Si una forma bilineal (resp. sesquilineal) tiene una matriz iden-
tidad en una base B entonces dicha forma bilineal o sesquilineal es un producto escalar
Proposición 6.1.6 Sea b una aplicación bilineal (resp. sesquilineal) con matriz A =
M(b, B) / B = {ei }ni=1 . Designamos por Br el menor formado por las r primeras
filas y las r primeras columnas de A. Entonces b es un producto escalar sii A es
simétrica (resp. hermítica) y det Br > 0 ∀r.
92 Espacios vectoriales euclı́deos.

6.2 Espacio Dual.


Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimensión finita, ∀u ∈ V la
aplicación
v ∗ : V −→ K
v 7−→ uv
es lineal, podemos definir así

ϕ∗ : V −→ V ∗
v 7−→ v ∗

que es lineal y biyectiva

Teorema 6.2.1 Isomorfía, espacio dual. Sea (V, g) espacio euclideo entonces se
establece el isomorfismo canonico entre el espacio V y su dual.

ϕ∗ : V −→ V ∗
v 7−→ v ∗

6.3 Subespacio ortogonal.


Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimensión finita y sea W ⊂
V definimos el subespacio ortogonal a W como el conjunto

W ⊥ = {v ∈ V / g(u, v) = 0 ∀u ∈ W }

Proposición 6.3.1 Espacio ortogonal y suma directa

V = W ⊕ W⊥

verificándose:
dim W ⊥ = dim V − dim W
por las fórmulas de Grassmamm.

Demostración. Sea {u1 , ......, ur } una base ortonormal de W, la podemos


completar hasta obtener una base de V dada por {u1 , ......, ur , er+1 , ...., en } aplicando
el teorema de Gram-Schimdt conseguimos una vase ortonormal de V {u1 , ......, un } de
tal forma que {ur+1 , ......, un } forman base de W ⊥ de esta forma podemos expresar
cualquier vector v ∈ V como

v = v 1 u1 + ...... + v r ur + v r+1 ur+1 + ...... + v n un ∈ W + W ⊥


 

y por lo tanto V = W ⊕ W ⊥ como queríamos hacer ver.

6.4 Producto vectorial.


Sea (V, g) un espacio vectorial euclideo / dim V = 3 y sea BV = {e1 , e2 , e3 } una
base ortonormal de V . Fijados v, u ∈ V la aplicación V −→ R que asigna a cada
ω 7−→ detB (u, v, ω) es lineal y por lo tanto un elemento del dual V ∗ . Sea x el vector
correspondiente a este elemento a través del isomorfismo V −→ V ∗ que asigna a cada
x 7−→ x∗ = detB (u, v, ·) i.e. ∀ ω, ω · x = detB (u, v, ω). x es por definición el producto
vectorial de u y v i.e. x = u ∧ v.
Aplicaciones entre espacios euclídeos. 93

Proposición 6.4.1 Se verifica:

1. ω · (u ∧ v) = detB (u, v, ω) ,

2. u ∧ v = −v ∧ u,

3. (ku) ∧ v = k (u ∧ v) ,

4. (u + u0 ) ∧ v = u ∧ v + u0 ∧ v,

5. u ∧ v es ortogonal tanto a u como a v,

6. u ∧ v = 0 sii son LD,

7. Si u ∧ v 6= 0 entonces {u, v, u ∧ v} forman base de V e inducen la misma


orientación que BV = {e1 , e2 , e3 } .

Proposición 6.4.2 Se verifica:

1. e1 ∧ e2 = e3 , e2 ∧ e3 = e1 , e3 ∧ e1 = e2 ,

2. Si u = ei uj y v = ei v j entonces
P P

e1 u1 v 1


u ∧ v = e2 u2 v 2
e3 u3 v 3

Proposición 6.4.3 Identidad de Jacobi:

(u ∧ v) ∧ ω + (u ∧ ω) ∧ v + (ω ∧ u) ∧ v = ~0.

Proposición 6.4.4 (u1 ∧ u2 ) (v1 ∧ v2 ) = (v1 · v1 ) (u2 · u2 ) − (u1 v2 ) (u2 v1 )

Proposición 6.4.5 ku ∧ vk2 = kuk2 kvk2 − (u · v)2

6.5 Aplicaciones entre espacios euclídeos.


6.5.1 Aplicaciones adjuntas y autoadjuntas
Definición 6.5.1 Aplicación adjunta o traspuesta de f . Sea (V, g) un espacio vec-
torial euclideo o unitario. Un endomorfismo h se llama aplicación adjunta de f ∈
End(V ) si
g(v, h(u)) = g(f (v), u) ∀u, v ∈ V

Observación 6.5.1 Si existe entonces es única. h es la aplicación traspuesta de f


i.e. h = f t .

Proposición 6.5.1 Si h es la aplicación adjunta de f ∈ End(V ) tal que dim V = n


(finita) entonces

ker h = (Im f )⊥
Im g = (ker f )⊥
94 Espacios vectoriales euclı́deos.

Proposición 6.5.2 Sea A = M(f, B) / f : V −→ V , entonces la matriz de la


t
aplicación adjunta de f es At en el caso real y A en el caso complejo.

Definición 6.5.2 Aplicación autoadjunta (o simétrica) f ∈ End(V ) es una apli-


cación lineal que coincide con su adjunta i.e. / f = f t

g(u, f (v)) = g(f (u), v) ∀u, v ∈ V

Proposición 6.5.3 Si A es la matriz de f en una base ortonormal, f es autoadjunta


sii
A = At (A simétrica) en R
t
A = A (A hermítica) en C

6.5.2 Diagonalización de aplicaciones autoadjuntas y hermíticas.


Toda matriz simétrica real o compleja es la matriz de una aplicación autoadjunta en
una base ortonormal. El problema de diagonalizar esas matrices equivale, pues, al de
encontrar una base de vectores propios de una aplicación autoadjunta.

Proposición 6.5.4 Sea (V, g) es un espacio euclideo o unitario y sea f : V −→ V


una aplicación autoadjunta (i.e. simétrica o hermítica resp.) entonces el polinomio
característico pf (λ) = det(f − λI) tiene raices reales (tanto en R como en C) i.e.
los autovalores de una matriz simétrica t real son reales.

Demostración.
1. Caso unitario:
si f (u) = λu / u 6= ~0 entonces

λg(u, u) = g(λu, u) = g(f (u), u) = g(u, f (u)) = λg(u, u) 6= ~0

entonces λ = λ sii λ ∈ R.

2. Caso euclídeo:
Sea A la matriz de la aplición simétrica f y B una una base ortogonal. Si
considero A como matriz compleja entonces es hermítica entonces sería la matriz
de cierta aplicación f : V −→ V entre espacios unitarios. puesto que f y f
tiene la misma matriz, su polinomio característico se´ra el mismo y sabemos
que en el caso complejo λ ∈ R entonces sólo puede pasar que λ ∈ R.
Como vemos los autovalores de una matriz simétrica son siempre reales.

Veamos una nueva demostración:


Sea
A = (aij ) / aij = aji i.e. A = At
considero un endomorfismo f : Cn −→ Cn tal que la matriz de dicho endomorfismo
respecto de cierta base B es precisamente A i.e. A = M(f, B). Sean λ1 , λ2 ∈ σ(f )
tal que λ1 6= λ2 y sea x ∈ Vλ1 e y ∈ Vλ2 i.e. f (x) = λ1 x , f (y) = λ2 y donde
x = (x1 , ...., xn )

f (x) = xi A
f (y) = yj A
Aplicaciones entre espacios euclídeos. 95

si

xi Ayjt = z ∈ C =⇒λ1 xi yjt = z


yj Axti = z ∈ C =⇒λ2 yj xti = z

además hay que tener en cuenta que

xi yjt = yj xti

i.e
λ1 xi yjt = z = λ2 yj xti
reagrupando
(λ1 − λ2 ) xi yjt = 0
esto se cumple para cualesquiera valores propios de f dsitintos.
Si existe λ ∈ σ(f ) tal que λ ∈ C entonces su conjungado también es autovalor
de f i.e. λ ∈ σ(f ). Entonces eligiendo adecuadamente un x ∈ Vλ e y ∈ Vλ tal que
y = x i.e. f (y) = λx ⇐⇒ y ∈ Vλ aplicamos el resultado anterior i.e. (λ1 − λ2 ) xi yjt =
0 al caso λ, λ observando que

λ − λ xi xtj = 0


h i
λ − λ |xi |2 = 0

pero esto sólo puede pasar si λ = λ pero esto es imposible si estamos en C así que
λ ∈ R.

Proposición 6.5.5 Autovalores distintos engendran subespacios ortogonales.

Demostración. Por la proposición anterior, si consideramos el resultado


principal válido para cualesquiera valores propios de f dsitintos i.e. (λ1 − λ2 ) xi yjt = 0
con λ1 , λ2 ∈ σ(f ) tal que λ1 6= λ2 y sea x ∈ Vλ1 e y ∈ Vλ2 i.e. f (x) = λ1 x , f (y) = λ2 y
donde x = (x1 , ...., xn ) entonces como λ1 6= λ2 se deduce de (λ1 − λ2 ) xi yjt = 0 que
xi yjt = 0 i.e. Vλ1 ⊥ Vλ2 como queríamos demostrar.

Teorema 6.5.1 Sea (V, g) (resp. unitario) y f ∈ End(V ); f : V −→ V autoadjunta


entonces existe una base de vectores propios ortogonales.

Demostración. Por inducción sobre la dimensión del espacio V .


Si dim V = 1 entonces todo vector es vector propio ].
Si dim V = n entonces pf (λ) = det(f − λI) ∈ C [λ] tiene siempre una raiz.
Sea v un vector unitario de valor propio λ, f (v) = λv. El subespacio

F = hvi⊥ = {u ∈ V / g(u, v) = 0}

es invariante por f. En efecto, si u ∈ F

g(f (u), v) = g(u, f (v)) = g(u, λv) = λg(u, v) = 0

de donde f (u) ∈ F. Por hipótesis de inducción, existe una base ortonormal de vectores
propios de F, {u2 , ......, un }. Entonces si tomamos u1 = v vemos que el conjunto de
vectores {u1 , u2 , ......, un } es base ortonormal de vectores propios de f tal y como
queríamos hacer ver.
96 Espacios vectoriales euclı́deos.

Teorema 6.5.2 Espectral. Si (V, g) es un espacio euclideo y f : V −→ V una


aplicación autoadjunta entonces existe una base de vectores propios ortonormal.
También lo podemos enunciar de la siguiente manera:
Sea f : V −→ V una aplicación autoadjunta en (V, g) de dimensión finita,
entonces existen E1 , ..., Er proyecciones ortogonales sobre V y r escalares {λ1 , ..., λr }
tales que:
P
1. f = i λi Ei
P
2. i λi Ei = IV

3. Ei Ej = 0 ∀i 6= j

Demostración. La demostración es la misma que la expuesta anteriormente


en el caso C sólo que aquí pf (λ) = det(f − λI) ∈ R [λ] tiene raices en R esto es lo
que demuestra la anterior proposición.
Veamos otra demostración.

Si dim V = 1 entonces ∀x ∈ V ; V = L(x) y f (x) = λx ∈ L(x) tomando


x
v1 = forma la base de V ; BV = {v1 }
kxk
Supongamos cierto si dim V = n − 1 veamos que pasa si dim V = n. Sea
λ ∈ σ(f ) entonces ∃ x 6= 0 tal que f (x) = λx de tal forma que (x ∈ Vλ ). Sea
L = L(x) y dim(L) = 1, sea W = L⊥ de tal forma que V = L ⊕ L⊥ entonces
dim(L⊥ ) = n − 1.
Veamos ahora que f|W : W −→ W es un subespacio invariante i.e f (W ) ⊂ W,
donde estamos denotanto W = L⊥ , para ello tomamos un vector z ∈ W y nos
preguntamos si la imagen por f de dicho vector pertenece al subespacio W i.e. si z ∈
W =⇒¿f (z) ∈ W ? vemos ∀z ∈ W ⇐⇒ g (z, x) = 0 / x ∈ L, entonces ¿g(f (z), x) =
0?∗

f (z) = (z1 , ....., zn ) A


f (z)x = (z1 , ....., zn ) Axt = (x1 , ...., xn ) At z t
f (x)z = λxz = 0 ⇐⇒ f (z) ∈ W

luego f (W ) ⊂ W. Por lo tanto f|W : W −→ W es un endomorfismo tal que dim(W ) =


n − 1. Sea BW = {v2 , ....., vn } una base ortonormal de W tal que

D = M(f|W , BW )

es simétrica. Aplicando la hipótesis de inducción ∃ BW = {u2 , ....., un } de vectores


propios de f|W que por el método de ortonormalización de G-M la convierto en
ortonormal de vectores propios. Tomando ahora como
v1
u1 = BL0 = {u1 }
kv1 k

luego
BV0 = {u1 , u2 , ....., un }
base ortonormal de vectores propios de V.

At = A
Aplicaciones entre espacios euclídeos. 97

Observación 6.5.2 La matriz de cambio pertenece al grupo ortogonal.

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

Ejemplo 6.5.1 Consideramos la matriz diagonal


 
2 0 0 0
 0 3 0 0 
A=  0

0 3 0 
0 0 0 5
y sean
     
1 0 0 0 0 0 0 0 0 0 0 0
 0 0 0 0 
  0 1 0 0 
  0 0 0 0 
E1 = 
 0 , E2 =  , E3 =  
0 0 0   0 0 1 0   0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 1

vemos que cada Ei es un proyector ya que Ei2 = Ei

A = 2E1 + 3E2 + 5E3

E1 + E2 + E3 = I
Ei Ej = 0

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias
Definición 6.5.3 (V, g) espacio vectorial euclideo (o unitario). Sea f ∈ End(V );
f : V −→ V una aplicación, decimos que es ortogonal en el caso real y unitaria en el
caso complejo si
g(f (u), f (v)) = g(u, v) ∀u, v ∈ V

Proposición 6.5.6 Toda aplicación que conserve el producto el producto escalar es


lineal.

Proposición 6.5.7 Si f es ortogonal o unitaria entonces:

1. kf (u)k = kuk ∀u ∈ V

2. u, v son ortogonales sii f (u), f (v) lo son

3. f es biyectiva

4. Si k es un valor propio de f , entonces |k| = 1.

5. Autovaloes distintos engendran subespacios ortogonales.

Proposición 6.5.8 Sea f ∈ End(V ); f : V −→ V tal que A = M(f, B) donde


B = {e1 , ...., en } . f es ortogonal (resp. unitaria) sii

g(f (ei ), f (ej )) = g(ei , ej )


At GA = G

donde G es la matriz del producto escalar en la base B.


98 Espacios vectoriales euclı́deos.

Corolario 6.5.1 Sea f ∈ End(V ); f : V −→ V tal que A = M(f, B) donde B es


una base ortonormal, entonces

f ortonormal ⇐⇒ At A = I
f unitaria ⇐⇒ At A = I

Definición 6.5.4 A es ortonormal si At A = I i.e. A−1 = At =⇒ det A = ±1

t
Definición 6.5.5 A es unitaria si At A = I i.e. A−1 = A =⇒ |det A| = 1

Las aplicaciones ortogonales de un espacio vectorial euclideo de dimensión


finita forman un grupo que denominamos el grupo ortogonal O(n). Este grupo es
isomorfo al de las aplicaciones ortogonales. Las aplicaciones unitarias forman el
grupo U (n) grupo unitario de orden n.
6.5.4 Diagonalización de matrices unitarias.
Teorema 6.5.3 Sea (V, g) espacio unitario y sea f ∈ End(V ) una aplicación uni-
taria, entonces existe siempre una base ortonormal de V formada por vectores propios
de f .

Demostración. Por inducción sobre la dimensión del espacio.


Supongamos que existe una base B = {vi } con i = 1, ..., n en la que f tiene
una matriz triangular, es decir

f (vi ) ∈ hv1 , ......, vi i

Sea {w1 , ...., wn } una base ortonormal obtenida a partir de la anterior por el método
de Gram-Schmidt. Como wi ∈ hv1 , ......, vi i resulta que

f (wi ) ∈ hf (v1 ), ......, f (vi )i = hv1 , ......, vi i = hw1 , ......, wi i

y por lo tanto la matriz de f en la base {w1 , ...., wn } también es triangular. Veamos


que {w1 , ...., wn } son vectores propios; w1 claramente es un vector propio. Supong-
amos que {w1 , ...., wk } son vectores propios y sea

f (wk+1 ) = a0 w1 + ...... + ak wk + ak+1 wk+1

entonces tenemos que si


f (wi ) = bi wi

para i = 1, ...., k

0 = wk+1 wi = f (wk+1 )f (wi ) = f (wk+1 ) bi wi = ai bi





pero bi = 1 entonces bi 6= 0 de donde ai = 0 ∀i = 1, ..., k entonces

f (wk+1 ) = ak+1 wk+1

i.e. wk+1 es también vector propio.


Ejemplos. 99

6.5.5 Forma canónica de una matriz ortogonal.


Teorema 6.5.4 Sea (V, g) espacio euclideo y f : V −→ V tal que A = M(f, B)
donde B es una base ortonormal tal que
 
1
 .. 

 . 


 −1 

 .. 
A=  . 


 A1 

 .. 

 . 

An

donde las matrices Ai son del tipo


 
a b
Ai = / a2 + b2 = 1
−b a

6.6 Ejemplos.
Ejemplo 6.6.1 Se considera en R3 la forma bilineal simétrica definida por

f (x, y) = x1 y1 + (x2 − x3 ) (y2 − y3 ) + (x1 + x3 ) (y1 + y3 )

queremos ver que f es un producto escalar, calcular la matriz de f respecto de la base


canónica y por último calcular la base ortonormal de

B = {(1, 1, 1) , (0, 1, −1) , (0, 2, 0)}

Solución. La matriz de la aplicación f respecto de la base canónica es


 
2 0 1
M (f, B) =  0 1 −1  = gij
1 −1 2

para ver que se trata de un producto escalar tenemos que ver que se trata de una forma
bilineal simétrica y definida positiva, es obvio que es bilineal y simétrica sólo queda
ver que es definida positiva pero es sencillo si tenemos encuenta que el determinante
de todos los menores angulares es positivo e incluso el determinante de det A = 1.
De esta forma garantizamos que A es un producto escalar.
Para ortonormalizar la base procedemos mediante el método de Gramm-
Schmidt de la siguiente manera.

B = {(1, 1, 1) , (0, 1, −1) , (0, 2, 0)}

tomamos el primero de los vectores

v1 = (1, 1, 1) = e1

el segundo vector e2 lo calculamos como sigue:

e2 = v2 + λe1 / g(e2 , e1 ) = 0
100 Espacios vectoriales euclı́deos.

g(v2 , e1 )
i.e. g(e2 , e1 ) = 0 = g(e1 , v2 ) + λg(e1 , e1 ) ⇐⇒ λ=−
g(e1 , e1 )
de esta forma obtenemos que
 
g(v2 , e1 ) −2
λ=− =−
g(e1 , e1 ) 5
donde  
2 0 1
 1
g(v2 , e1 ) = 0 1 −1  0 1 −1   1  = −1
1 −1 2 1
  
 2 0 1 1
g(e1 , e1 ) = 1 1 1  0 1 −1   1 =5
1 −1 2 1
por lo tanto
   
2 2 7 3
e2 = v2 + λe1 = (0, 1, −1) + (1, 1, 1) = , ,−
5 5 5 5
de igual forma calcularemos el vector e3

e3 = v3 + λe1 + µe2 / g(ei , ej ) = 0,

por lo tanto
g(v3 , e1 ) g(v3 , e2 )
λ=− y µ=−
g(e1 , e1 ) g(e2 , e2 )
en este caso
  
 2 0 1 1
g(v3 , e1 ) = 0 2 0  0 1 −1   1  = 0 =⇒ λ = 0
1 −1 2 1
  2 
 2 0 1 5
g(v3 , e2 ) = 0 2 0  0 1 −1   75  = 4
1 −1 2 − 35
  2 
2 0 1 5 21
g(e2 , e2 ) = 25 75 − 35  0 1 −1   75  =

5
1 −1 2 − 35
g(v3 , e2 ) 20
µ=− =−
g(e2 , e2 ) 21
   
20 2 7 3 8 2 4
e3 = v3 + λe1 + µe2 = (0, 2, 0) − , ,− = − , ,
21 5 5 5 21 3 7
por lo que la base ortogonal resulta ser:
    
0 2 7 3 8 2 4
B = (1, 1, 1) , , ,− , − , ,
5 5 5 21 3 7
ahora sólo queda normalizarla i.e.
( )
00 ei
B = p
g(ei , ei )
Ejemplos. 101
 
 1    
1 2 7 3 1 8 2 4
B 00 = √ (1, 1, 1) , q , ,− ,q − , ,
 5 21 5 5 5 4 21 3 7 
5 21
ya que
8
  
2 0 1 − 21
8 2 4
 2  4
g(e3 , e3 ) = − 21 3 7
 0 1 −1   3 =
4 21
1 −1 2 7
por lo tanto nuestra base ortonormal es:
 
 1    
1 2 7 3 1 8 2 4
B 00 = √ (1, 1, 1) , q , ,− ,q − , ,
 5 21 5 5 5 4 21 3 7 
5 21

Ejemplo 6.6.2 Buscar una base ortonormal del siguiente subespacio F de C4 .

F = x + iy − z = 0 ∀ (x, y, z, t) ∈ C4


Solución.
En primer lugar vamos a calcular las ecuaciones paramétricas del subespacio
F, siendo estas:

 x=λ

y=µ

F = =⇒ BL = {(1, 0, 1, 0) , (0, 1, i, 0) , (0, 0, 0, 1)}

 z = λ + iµ
z=δ

mediante G-M obtenemos la base buscada.


Sea v1 = u1 = (1, 0, 1, 0)
v2 = λv1 +u2 si hacemos g(v1 , v2 ) = 0 ⇐⇒ λ = − g(u 2 ,v1 )
g(v1 ,v1 ) entonces obtenemos:

g(u2 , v1 ) i
λ=− = − =⇒ v2 = (−i, 2, i, 0)
g(v1 , v1 ) 2

v3 = λv1 + µv2 + u3 imponiendo que g(v1 , v3 ) = 0 y g(v3 , v2 ) = 0 obtenemos


que
g(u3 , v1 ) g(u3 , v2 )
λ=− =0 y µ=− =0
g(v1 , v1 ) g(v2 , v2 )
luego v3 = (0, 0, 0, 1). Una vez obtenida la base ortogonal sólo queda normalizarla.
 
1 1
B = √ (1, 0, 1, 0) , √ (−i, 2, i, 0) , (0, 0, 0, 1)
2 2

Ejemplo 6.6.3 Sea  


2 −2 0
A =  −2 3 2 
0 2 5
calcular una base ortonormal (igual que en el primer ejemplo).
102 Espacios vectoriales euclı́deos.

Solución.

Al ser un ejercicio puramente mecánico sólo se indica la solución siendo ésta:


 
1
B = √ (1, 0, 0) , (1, 1, 0) , (−2, −2, 1)
2
OBS: la matriz A es una forma bilineal simétrica definida positiva de tal
forma que por ejemplo la expresión g(v1 , v1 ) se ha calculado con respecto a dicha
matriz i.e. g(v1 , v1 ) = v1 Av1t = 2.

Ejemplo 6.6.4 Sea F ⊂ R3 generado por los siguientes vectores

F = L {(1, 0, 1) , (0, 1, −1) , (0, 0, 0) , (1, 1, 0)}

calcular F ◦ y F ◦◦ .

Solución. Vemos que



 x+z =0

F = y−z =0 ∀ (x, y, z) ∈ R3 =⇒ BF ◦ = {(1, −1, −1)}
x+y =0

F ◦◦ = (x, y, z) ∈ R3

/ h(x, y, z) , (1, −1, −1)i = 0 = F
i.e. x=y+z

Ejemplo 6.6.5 Sea F ⊂ R4 generado por


 
x+y+z =0
F = ∀ (x, y, z, t) ∈ R4
z+t=0

calcular bases ortonormales de F y F ◦ . Calculese la matriz en la base canónica de


la proyección ortogonal sobre el subespacio F.

Solución. Tomando una base cualquiera de F i.e. F = {(1, −1, 0, 0) , (1, 0, −1, 1)}
y aplicando el método de G-M obtenemos
 
1 1
BF = √ (1, −1, 0, 0) , √ (1, 1, −2, 2)
2 10

OBS: vemos que v2 = λv1 + u2 entonces λ = − 12 con respecto al producto


escalar ordinario de R4 .
Vemos trivialmente que
 
◦ x−y =0 4
F = ∀ (x, y, z, t) ∈ R
x−z+t=0

y que por lo tanto por G-M obtenemos que


 
1 1
BF ◦ = √ (0, 0, 1, 1) , √ (2, 2, 1, −1)
2 10
Ejemplos. 103

Por último, para calcular la proyección ortogonal de v = (x, y, z, t) ∈ R4 ,


sobre F consideramos la base ortonormal (b1 , b2 ) de F . Sabemos que

p(x) = hx | b1 i b1 + hx | b2 i b2

entonces no tenemos más que desarrollar la expresión:


 
1 1 1
hx | b1 i b1 = (x, y, z, t) √ (1, −1, 0, 0) √ (1, −1, 0, 0) = (x − y, −x + y, 0, 0)
2 2 2

 
1 1
hx | b2 i b2 = (x, y, z, t) √ (1, 1, −2, 2) √ (1, 1, −2, 2) =
10 10
1
= (x + y − 2z + 2t, x + y − 2z + 2t, −2x − 2y + 4z − 4t, 2x + 2y − 4z + 4t)
10
por lo tanto
hx | b1 i b1 + hx | b2 i b2 =
     3 2 1 1 
x−y x + y − 2z + 2t 5x − 5y − 5z + 5t
1  −x + y 
 1 
 x + y − 2z + 2t   − 25 x +
  3
5y − 1
5z + 1
5t

=  + = 
2  0  10  −2x − 2y + 4z − 4t   − 15 x − 1
5y + 2
5z − 2
5t

1 1 2 2
0 2x + 2y − 4z + 4t 5x + 5y − 5z + 5t
de tal forma que la matriz de la proyección en la base cacónica toma la siguiente
expresión:  
3 −2 −1 1
1  −2 3 1 1 
M(p, B) =  
5  −1 −1 2 −2 
1 1 −2 2

Ejemplo 6.6.6 Encontrar una matriz P tal que P t AP sea diagonal siendo A
   
5 −2 2 5 −2i −4
A =  −2 2 4  y A =  2i 8 2i 
2 4 2 −4 −2i 5

Solución. Empezemos con la primera matriz


 
5 −2 2
A =  −2 2 4 
2 4 2

en primer lugar caluclamos el polinimio característico siendo éste:

p(X) = X 3 − 9X 2 + 108

y por lo tanto los autovalores son: σ(f ) = {−3, 6, 6} , el polonomio mínimo en este
caso es:
mf (X) = −18 − 3X + X 2
Los subespacios propios son:
104 Espacios vectoriales euclı́deos.

1. V−3 = ker (A + 3I)


   
8 −2 2 x  8x − 2y + 2z = 0
 −2 5 4   y  = 0 =⇒ −2x + 5y + 4z = 0
2 4 5 z 2x + 4y + 5z = 0

BV−3 = {(1, 2, −2)}

2. V6 = ker (A − 6I) (la dimensión de este esapcio coincide con la multiplicidad


del autovalor)
   
−1 −2 2 x  −x − 2y + 2z = 0
 −2 −4 4   y  = 0 =⇒ −2x − 4y + 4z = 0
2 4 −4 z 2x + 4y − 4z = 0

BV6 = {(2, 0, 1) , (−2, 1, 0)}

Comprobamos que
     −1
5 −2 2 1 2 −2 −3 0 0 1 2 −2
 −2 2 4 = 2 0 1  0 6 0  2 0 1 
2 4 2 −2 1 0 0 0 6 −2 1 0

donde −1  1 2
− 29
 
1 2 −2 9 9
 2 0 1  =  29 4
9
5
9

−2 1 0 − 92 5
9
4
9
si aplicamos el método de G-M obtendremos una base ortonormal, siendo ésta
 
1 1 1
B= (1, 2, −2) , √ (2, 0, 1) , √ (−2, 5, 4)
3 5 3 5
lo único que hay que ver es que v2 ∈ V6
hv1 , u2 i 4
v2 = λv1 + u2 / λ=− = =⇒ v2 = (−2, 5, 4)
hv1 , v1 i 5
de esta forma
1 2  1 √2 2
− 3√

−√23
   
√3 3 5 −2 2 3 5 5 −3 0 0
2 1 2 5
5 √ 5 0 5   −2 2 4  0 √ =
 
0 6 0 
√ 5 √  3

3 5
2
− 15 5 13 5 4
15 5
2 4 2 − 23 √1 4
√ 0 0 6
5 3 5

observándose que P t = P −1 .
Con respecto a la segunda matriz operamos de igual forma i.e.
 
5 −2i −4
A =  2i 8 2i 
−4 −2i 5

vemos que el polinomio característico es:

p(X) = X 3 − 18X 2 + 81X


Ejemplos. 105

mientras que el mínimo es:


mf (X) = −9X + X 2
de esta forma comprobamos que los autovalores son:

σ(f ) = {0, 9, 9}

así los subespacios característicos son:

1. V0 = ker(A)
   
5 −2i −4 x  5x − 2iy − 4z = 0
 2i 8 2i   y  = 0 =⇒= 2ix + 8y + 2iz = 0
−4 −2i 5 z −4x − 2iy + 5z = 0

y = − 12 iz, z = z, x = z de esta forma una base es:



cuya solución es:

BV0 = {(2, −i, 2)}

2. V9 = ker(A − 9I)
   
−4 −2i −4 x  −4x − 2iy − 4z = 0
 2i −1 2i   y  = 0 =⇒= 2ix − y + 2iz = 0
−4 −2i −4 z −4x − 2iy − 4z = 0

−4x − 2iy − 4z = 0
2ix − y + 2iz = 0
−4x − 2iy − 4z = 0
cuya solución es: {y = 2ix + 2iz}, de esta forma una base es:

BV9 = {(1, 2i, 0) , (0, 2i, 1)}

Al igual que antes aplicamos el método de G-M para obtener una base ortonor-
mal respecto de A. De esta forma
 
1 1 1
B= (2, −i, 2) , √ (1, 2i, 0) , √ (−4, 2i, 5)
3 5 3 5

lo único que hay que ver es que v2 ∈ V9

hv1 , u2 i −4
v2 = λv1 + u2 / λ=− = =⇒ v2 = (−4, 2i, 5)
hv1 , v1 i 5

recordamos que:

(a + bi) (c + di) = (ac − bd) + (ad + bc) i


X
hx | yi = xi y i ∀ x, y ∈ Cn
i
106 Espacios vectoriales euclı́deos.

Ejemplo 6.6.7 Sea  


2 0 0 −2
 0 1 −3 0 
A=
 0 −3

1 0 
−2 0 0 2
calcular una base ortonormal de vectores propios y la descomposión espectral.

Solución.
Vemos que el polinomio característico es:

p(X) = X 4 − 6X 3 + 32X

mientras que el mínimo es:

mf (X) = −8X − 2X 2 + X 3

de esta forma comprobamos que los autovalores son:

σ(f ) = {0, −2, 4, 4}

así los subespacios característicos son:

1. V0 = ker(A)
   
2 0 0 −2 x 2x − 2t = 0


 0 1 −3 0  y y − 3z = 0
   
  = 0 =⇒
 0 −3 1 0  z   −3y +z =0

−2 0 0 2 t −2x + 2t = 0

cuya solución es: {y = 0, z = 0, x = x, t = x} , así una base es:

BV0 = {(1, 0, 0, 1)}

2. V4 = ker(A − 4I)
   
−2 0 0 −2 x 
 −2x − 2t = 0
 0 −3 −3 0  y  
−3y − 3z = 0
    = 0 =⇒
 0 −3 −3 0  z   −3y − 3z = 0

−2 0 0 −2 t −2x − 2t = 0

cuya solución es : {x = −t, y = −z} , así una base del subespacio es:

BV4 = {(−1, 0, 0, 1) , (0, −1, 1, 0)}

3. V−2 = ker(A + 2I)


   
4 0 0 −2 x 4x − 2t = 0


 0 3 −3 0  y 3y − 3z = 0
 
   = 0 =⇒
 0 −3 3 0  z   −3y + 3z = 0

−2 0 0 4 t −2x + 4t = 0

cuya solución es : {y = z, t = 0, x = 0, z = z} , así una base es:

BV−2 = {(0, 1, 1, 0)}


Ejemplos. 107

De esta forma la base busca es:


 
1 1 1 1
B = √ (1, 0, 0, 1) , √ (−1, 0, 0, 1) , √ (0, −1, 1, 0) , √ (0, 1, 1, 0)
2 2 2 2

Si v es un vector y {pi }3i=1 son las proyecciones ortogonales sobre cada uno
de los subespacios (V0 , V4 , V−2 ):

p1 = hv | a1 i a1
p2 = hv | a2 i a2 + hv | a3 i a3
p3 = hv | a4 i a4

entonces
1 1
p1 = hv | a1 i a1 = h(x, y, z, t) | (1, 0, 0, 1)i (1, 0, 0, 1) = (x + t, 0, 0, x + t)
2 2
1
p2 = hv | a2 i a2 + hv | a3 i a3 = (x − t, y − z, z − y, t − x)
2
1
p3 = hv | a4 i a4 = (0, y + z, z + y, 0)
2

como queríamos ver.

Ejemplo 6.6.8 Sea A la expresión matricial de un endomorfismo en C.


 
1+i 0 1+i
A= 0 2i 0 
−1 − i 0 1 + i

Comprobar que es normal, calcular una base de autovectores y calcular la descom-


posición espectral.
t
Solución. Decimos que A es normal sii AA∗ = A∗ A donde A∗ = A .
En este caso:
    
1+i 0 1+i 1 − i 0 −1 + i 4 0 0
 0 2i 0   0 −2i 0  =  0 4 0 
−1 − i 0 1 + i 1−i 0 1−i 0 0 4
    
1 − i 0 −1 + i 1+i 0 1+i 4 0 0
 0 −2i 0   0 2i 0  =  0 4 0 
1−i 0 1−i −1 − i 0 1 + i 0 0 4
AA∗ = A∗ A

La base de autoves está formada por:

p(X) = X 3 − 4iX 2 − 2X 2 + 8iX − 4X + 8


mf (X) = 4i + (−2 − 2i) X + X 2
σ(f ) = {2, 2i, 2i}

Los subespacios característicos son:


108 Espacios vectoriales euclı́deos.

1. V2i = {ix − z = 0} , entonces una base de este espacio está formada por (ya
normalizada):  
1
BV2i = √ (1, 0, i) , (0, 1, 0)
2
2. V2 = {ix + z = 0, y = 0} , entonces una base de este espacio está formada por:
 
1
BV2 = √ (1, 0, −i)
2

De esta forma:

p1 = hv | a1 i a1 + hv | a2 i a2
p3 = hv | a3 i a3

entonces
1
p1 = hv | a1 i a1 + hv | a2 i a2 = (x − iz, y, ix + z)
2
1
p3 = hv | a3 i a3 = (x + iz, 0, −ix + z)
2

Ejemplo 6.6.9 En R4 con el producto escalar ordinario calcular las coordenadas del
vector proyección ortogonal de u = (1, 3, −1, 0) sobre el subespacio L
 
x − 2y + t = 0
L= ∀ (x, y, z, t) ∈ R4
y + z − 2t = 0

así como la distancia de u al subespacio L.

Solución.
las ecuaciones de L son:


 x = 2λ − µ
y=λ

L=

 z = −λ + 2µ
t=µ

u=x+z / x = proyL (u) y d(u, L) = kzk


BL = {(2, 1, −1, 0) , (−1, 0, 2, 1)}


 x=λ
y = −2λ + µ 2x + y − z = 0


L = ⇐⇒

 z = µ −x + 2z + t = 0
t = λ − 2µ

BL⊥ = {(1, −2, 0, 1) , (0, 1, 1, −2)}


 

 

BV = (2, 1, −1, 0) , (−1, 0, 2, 1), (1, −2, 0, 1) , (0, 1, 1, −2)
|
 {z } | {z }

BL B L⊥
Ejemplos. 109
    
2 −1 1 0 x 1
 1
 0 −2 1  y
    3 
= 
 −1 2 0 1  z   −1 
0 1 1 −2 t 0


 2x − y + z = 1 x = 6/5
x − 2z + t = 3 y = 3/10

⇐⇒
 −x + 2y + t = −1
 z = −11/10
y + z − 2t = 0 t = −2/5

entonces:
 
6 3 21 6 3 3
proyL (u) = x = (2, 1, −1, 0) + (−1, 0, 2, 1) = , ,− ,
5 10 10 5 5 10
 
11 2 11 9 2 3
z = − (1, −2, 0, 1) − (0, 1, 1, −2) = − , , − , −
10 5 10 5 5 10
1√
d(u, L) = kzk = 470
10

Das könnte Ihnen auch gefallen