Sie sind auf Seite 1von 30

Universidad de la Rep ublica Segundo semestre 2004

Facultad de Ciencias Notas de



Algebra Lineal II
Centro de Matematica Andres Abella
Formas multilineales
1. Formas multilineales
Sea k un cuerpo arbitrario, V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en
V es una funcion : V V
. .
n
k que verica:
(v
1
, . . . , a v
i
+w
i
, . . . , v
n
) = a (v
1
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , w
i
, . . . , v
n
)
para todo a k, v
1
, . . . , v
n
, w
i
V y todo i = 1, . . . , n.
Observar que una forma multilineal es una funcion que es lineal en cada variable, en particular una
1-forma multilineal es simplemente un elemento del espacio dual V

.
Es un ejercicio el vericar que el conjunto de las n-formas multilineales es un subespacio del espacio
vectorial de las funciones con dominio V V y codominio k, en el cual las operaciones se denen punto
a punto:
(f +g)(v
1
, . . . , v
n
) = f(v
1
, . . . , v
n
) +g(v
1
, . . . , v
n
), (a f)(v
1
, . . . , v
n
) = a f(v
1
, . . . , v
n
). (1)
En particular esto implica que el conjunto de las n-formas multilineales tiene estructura de espacio vectorial.
2. Formas bilineales
Una forma bilineal es una 2-forma multilineal, es decir una funcion : V V k que verica
(a u +v, w) = a (u, w) +(v, w),
(w, a u +v) = a (w, u) +(w, v).
Sea Bil(V ) el conjunto de las formas bilineales en V . Por lo que vimos anteriormente Bil(V ) tiene estructura
de espacio vectorial deniendo las operaciones como en (1).
Ejemplos de formas bilineales son los siguientes:
Ejemplo 2.1. Un producto interno real , ) : V V R.
Ejemplo 2.2. La funcion : k
2
k
2
k denida por

_
(x, y) ,
_
x

, y

__
= 2 xx

+ 3 xy

+ 4 y x

y y

.
Observar que podemos escribir:

_
(x, y) ,
_
x

, y

__
= (x, y)
_
2 3
4 1
__
x

_
.
1
Ejemplo 2.3. Este ejemplo generaliza el anterior. Si A M
n
(k), denimos
A
: k
n
k
n
k por
A
(u, v) =
u
t
Av, siendo
u =
_
_
_
u
1
.
.
.
u
n
_
_
_, v =
_
_
_
v
1
.
.
.
v
n
_
_
_, A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_.
Explcitamente es
A
(u, v) =

n
i,j=1
a
ij
u
i
v
j
.
Proposici on 2.1. Sean : V V k una forma bilineal, W un espacio vectorial y T, S : W V dos
transformaciones lineales. Si denimos

: W W k mediante

(w
1
, w
2
) = (T(w
1
), S(w
2
)), w
1
, w
2
W,
Entonces

es una forma bilineal en W.


Dem.

(w
1
+a w

1
, w
2
) = (T(w
1
+a w

1
), S(w
2
)) = (T(w
1
) +a T(w

1
), S(w
2
))
= (T(w
1
), S(w
2
)) +a (T(w

1
), S(w
2
)) =

(w
1
, w
2
) +a

(w

1
, w
2
).
Esto prueba que

es lineal en la primer variable y an alogamente se prueba que es lineal en la segunda


variable.
Denici on 2.1. Si V tiene dimension nita n, B = v
1
, . . . , v
n
es una base de V y Bil(V ), denimos
M
B
() la matriz asociada a la forma bilineal en la base B mediante
M
B
() := ((v
i
, v
j
))
i,j
=
_
_
_
(v
1
, v
1
) (v
1
, v
n
)
.
.
.
.
.
.
(v
n
, v
1
) (v
n
, v
n
)
_
_
_ M
n
(k).
Ejemplo 2.4. En el Ejemplo 2.2, si B = (1, 0), (0, 1), es M
B
() =
_
2 3
4 1
_
.
Teorema 2.2. Sea V un espacio de dimensi on nita n y B = v
1
, . . . , v
n
una base de V . La funci on
M
B
: Bil(V ) M
n
(k) que a cada forma bilineal le asocia la matriz M
B
() es un isomorsmo lineal.
Dem. Sean ,

Bil(V ) y a k. Es
M
B
_
a +

_
=
__
a +

_
(v
i
, v
j
)
_
i,j
=
_
a (v
i
, v
j
) +

(v
i
, v
j
)
_
i,j
= a ((v
i
, v
j
))
i,j
+
_

(v
i
, v
j
)
_
i,j
= a M
B
() +M
B
_

_
.
Luego M
B
es lineal.
Sea Bil(V ) tal que M
B
() = 0 M
n
(k), entonces es (v
i
, v
j
) = 0 para todo i, j = 1, . . . , n. Sean
v, w V que escribimos v =

n
i=1
x
i
v
i
y w =

n
j=1
y
j
v
j
. Entonces
(v, w) =
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i=1
x
i
n

j=1
y
j
(v
i
, v
j
) = 0.
Luego Ker M
B
= 0 y M
B
es inyectiva.
2
Sea A = (a
ij
)
i,j
M
n
(k). Denimos : V V k mediante (v, w) =
A
(coord
B
v, coord
B
w), siendo

A
: k
n
k
n
k la forma bilineal denida en el Ejemplo 2.3. La Proposicion 2.1 nos prueba que Bil(V ).
Operando obtenemos
(v
i
, v
j
) =
A
(e
i
, e
j
) = a
ij
, i, j = 1, . . . , n.
Luego M
B
() = A y M
B
es sobreyectiva.
Corolario 2.3. Si V es un espacio de dimensi on nita n, entonces la dimensi on de Bil(V ) es n
2
.
Dem. Es Bil(V ) M
n
(k) y dimM
n
(k) = n
2
.
Corolario 2.4. Si V es un espacio de dimensi on nita n, B es una base de V y Bil(V ), entonces una
matriz A M
n
(k) verica
(v, w) = (coord
B
v)
t
Acoord
B
w, v, w V
si y solo si A = M
B
().
Dem. Se deduce inmediatamente de la demostraci on del teorema anterior.
Observar que en particular el corolario anterior nos da la siguiente formula:
(v, w) = (coord
B
v)
t
M
B
() coord
B
w, v, w V
Corolario 2.5. Si Bil (k
n
) entonces existe una unica matriz A M
n
(k) tal que (v, w) = v
t
Aw para
todo v, w en k
n
(es decir =
A
).
Dem. Sea B la base canonica de k
n
y A = M
B
(), entonces
(v, w) = (coord
B
v)
t
Acoord
B
w = v
t
Aw, v, w k
n
.
De ahora en adelante supondremos que V es un k-espacio vectorial de dimension nita n.
Proposici on 2.6. Sean B y ( dos bases de V y Bil(V ). Entonces
M
C
() = (
B
[id ]
C
)
t
M
B
()
B
[id ]
C
.
Dem. Sean v, w V ,
(v, w) = (coord
B
v)
t
M
B
() coord
B
w
= (
B
[id ]
C
coord
C
v)
t
M
B
() (
B
[id ]
C
coord
C
w)
= (coord
C
v)
t
(
B
[id ]
C
)
t
M
B
()
B
[id ]
C
coord
C
w.
Luego el Corolario 2.4 implica M
C
() = (
B
[id ]
C
)
t
M
B
()
B
[id ]
C
.
Denici on 2.2. Dos matrices A y B en M
n
(k) se dicen congruentes si existe una matriz invertible Q en
M
n
(k) tal que A = Q
t
BQ.
3
Ejercicio 2.1. Probar que la congruencia es una relaci on de equivalencia en M
n
(k).
Teorema 2.7. Sea Bil(V ) y B una base de V . Si A M
n
(k) es congruente con M
B
(), entonces existe
( base de V tal que M
C
() = A.
Dem. Sea Q = (q
ij
) M
n
(k) invertible tal que A = Q
t
M
B
() Q. Si B = v
1
, . . . , v
n
, denimos
( = w
1
, . . . , w
n
mediante
w
j
=
n

i=1
q
ij
v
i
, j = 1, . . . , n.
Como Q es invertible, resulta que ( es una base de V y
B
[id ]
C
= Q. Luego
A = Q
t
M
B
() Q = (
B
[id ]
C
)
t
M
B
()
B
[id ]
C
= M
C
().
Corolario 2.8. Dos matrices son congruentes si y solo si representan a la misma forma bilineal.
Dem. Sean A y A

en M
n
(k) dos matrices congruentes. Si consideramos la forma bilineal
A
Bil (k
n
)
y B es la base canonica de k
n
es A

= M
B
(
A
). Luego A es congruente con M
B
(
A
) y el teorema anterior
implica que A = M
C
(
A
) para alguna base ( de V . El recproco es la Proposicion 2.6.
3. Formas bilineales simetricas
Sea k un cuerpo arbitrario, decimos que el cuerpo tiene caracterstica 2 y escribimos car k = 2 si en k se
verica 1 + 1 = 0. Un ejemplo en el cual pasa esto es el caso del conjunto formado por dos elementos que
llamamos 0 y 1, F
2
= 0, 1, en el cual denimos dos operaciones +, : F
2
F
2
F
2
mediante:
0 + 0 = 0, 1 + 1 = 0, 0 + 1 = 1, 1 + 0 = 1,
0 0 = 0, 0 1 = 0, 1 0 = 0, 1 1 = 1.
Es un ejercicio el vericar que (F
2
, +, ) es un cuerpo y claramente car F
2
= 2. Otro ejemplo es el cuerpo de
expresiones racionales con coecientes en F
2
, es decir los cocientes de polinomios con coecients en F
2
.
Ejemplos de cuerpos con caracterstica distinta de 2 son Q, R y C. En un cuerpo k con car k ,= 2 es
2 := 1 + 1 ,= 0 y luego 2 es invertible en k.
En este secci on V sera siempre un k-espacio vectorial de dimension nita y car k ,= 2.
Denici on 3.1. Una forma bilineal se dice simetrica si
(u, v) = (v, u), u, v V.
Escribimos Bil
S
(V ) := Bil(V ) : es simetrica .
Ejercicio 3.1. Probar que Bil
S
(V ) es un subespacio de Bil(V ).
Proposici on 3.1. Sea Bil(V ). Son equivalentes:
1. Bil
S
(V ).
4
2. Para toda base B de V es M
B
() simetrica.
3. Existe una base B de V tal que M
B
() es simetrica.
Dem. 1 2: Sea B = v
1
, . . . , v
n
una base de V y M
B
() = (a
ij
), entonces
a
ij
= (v
i
, v
j
) = (v
j
, v
i
) = a
ji
, i, j = 1, . . . , n
luego M
B
() = (a
ij
) es simetrica.
2 3: Esto es obvio.
3 1: Sea B = v
1
, . . . , v
n
una base de V tal que M
B
() es simetrica, esto ultimo equivale a (v
i
, v
j
) =
(v
j
, v
i
), i, j = 1, . . . , n. Sean u, v V , entonces existen escalares a
i
, b
i
k, i = 1, . . . , n tales que
u =

n
i=1
a
i
v
i
y v =

n
i=1
b
i
v
i
. Luego
(u, v) =
_
_
n

i=1
a
i
v
i
,
n

j=1
b
j
v
j
_
_
=
n

i=1
a
i
n

j=1
b
j
(v
i
, v
j
) =
n

i=1
a
i
n

j=1
b
j
(v
j
, v
i
)
=
_
_
n

j=1
b
j
v
j
,
n

i=1
a
i
v
i
_
_
= (v, u).
Como u y v son arbitrarios, se deduce que Bil
S
(V ).
Corolario 3.2. Si dim(V ) = n, entonces dimBil
S
(V ) =
n(n+1)
2
.
Denici on 3.2. Sea Bil
S
(V ). La funcion : V k denida por (v) = (v, v), v V se llama la
forma cuadr atica asociada a .
Observaci on 3.1. Las formas cuadraticas en V forman un subespacio de las funciones de V en k: es claro
que la funcion nula es una forma cuadratica (correspondiente a la forma bilineal nula). Si y son dos
formas cuadraticas en V y a k, entonces existen y en Bil
S
(V ) tales que (v) = (v, v) y (v) =
(v, v), v V, luego
(a + ) (v) = a (v) + (v) = a (v, v) +(v, v) = (a +) (v, v), v V y a + Bil
S
(V ).
Esto prueba que a + es una forma cuadratica en V .
Proposici on 3.3. Sea Bil
S
(V ) y : V k la forma cuadr atica asociada a . Entonces:
1. (a v) = a
2
(v), a k, v V .
2. (0) = 0.
3. (u +v) = (u) + 2 (u, v) + (v), u, v V .
4. (u, v) =
1
2
((u +v) (u) (v)), u, v V .
Dem.
1. (a v) = (a v, a v) = a
2
(v, v) = a
2
(v).
2. Se deduce de la formula anterior tomando a = 0.
3. (u +v) = (u +v, u +v) = (u, u) +(u, v) +(v, u) +(v, v) = (u) + 2 (u, v) + (v).
4. Se deduce de la formula anterior despejando (u, v).
5
Observaci on 3.2. Notar que para la propiedad 4 de la Proposicion anterior es necesaria la condici on car k ,= 2.
Denici on 3.3. Un polinomio homogeneo de grado 2 en las indeterminadas x
1
,. . .,x
n
es un polinomio en
k[x
1
, . . . , x
n
] de la forma

1ijn
a
ij
x
i
x
j
.
Observar que los polinomios homogeneos de grado 2 en las indeterminadas x
1
,. . .,x
n
forman un subespacio
de k[x
1
, . . . , x
n
].
Ejemplo 3.1. Si n = 2, un polinomio homogeneo de grado 2 en las indeterminadas x, y es un polinomio en
k[x, y] de la forma
ax
2
+bxy +cy
2
, a, b, c k.
Si n = 3, un polinomio homogeneo de grado 2 en las indeterminadas x, y, z es un polinomio en k[x, y, z] de
la forma
ax
2
+by
2
+cz
2
+dxy +exz +fyz, a, b, . . . , f k.
Proposici on 3.4. Los siguientes espacios vectoriales son isomorfos.
1. El espacio de las matrices simetricas de orden n con coecientes en k.
2. El espacio de las formas bilineales simetricas en k
n
.
3. El espacio de las formas cuadr aticas en k
n
.
4. El espacio de los polinomios homogeneos de grado 2 en las indeterminadas x
1
, . . . , x
n
con coecientes
en k.
Dem. Nosotros habamos visto anteriormente que la correspondencia que a una matriz A le hace cor-
responder la forma bilineal denida por (u, v) = u
t
Av establece un isomorsmo entre las matrices de
orden n con coecientes en k y las formas bilineales en k
n
. La Proposicion 3.1 nos dice que este isomorsmo
restringido a las matrices simetricas de orden n nos da un isomorsmo entre las matrices simetricas y las
formas bilineales simetricas.
El isomorsmo entre formas bilineales simetricas y formas cuadraticas viene dado por las formulas
siguientes:
(v) = (v, v), (u, v) =
1
2
((u +v) (u) (v)) . (2)
Si A = (a
ij
) M
n
(k) es una matriz simetrica, le asociamos el polinomio p en las indeterminadas
x
1
, . . . , x
n
denido por
p =

ij
b
ij
x
i
x
j
, b
ij
=
_
a
ii
si i = j,
2 a
ij
si i < j.
Es claro que que p es un polinomio homogeneo de grado 2 en las indeterminadas x
1
, . . . , x
n
y que esta
correspondencia es un isomorsmo entre las matrices simetricas y los polinomios homogeneos de grado
dos.
6
Ejemplo 3.2. En el caso n = 2, una matriz simetrica de orden 2 es una matriz de la forma A =
_
a b
b c
_
. La
forma bilineal simetrica, la forma cuadratica y el polinomio homogeneo que corresponden a A son:

_
(x, y),
_
x

, y

__
= (x, y)
_
a b
b c
_

_
x

_
= a xx

+b xy

+b x

y +c y y

,
(x, y) = ((x, y), (x, y)) = a x
2
+ 2 b xy +c y
2
,
p = a x
2
+ 2 b xy +c y
2
.
Observar que la unica diferencia ente y p es que es una funcion de k k en k, mientras que p es un
polinomio en dos variables.
De ahora en adelante V es un k-espacio vectorial de dimension nita, Bil
S
(V ) y : V k es la
forma cuadratica asociada a .
Denici on 3.4. Dos vectores u y v en V son -ortogonales si (u, v) = 0. Dos subespacios U y W de V son
-ortogonales si (u, w) = 0 para todo u U y w W. Una base B = v
1
, . . . , v
n
de V se dice -ortogonal
si (v
i
, v
j
) = 0 si i ,= j y se dice -ortonormal si adem as (v
i
) 1, 0, 1, i = 1, . . . , n.
Observar que si B = v
1
, . . . , v
n
es una base -ortogonal de V y u =

n
i=1
x
i
v
i
y v =

n
i=1
y
i
v
i
son
dos vectores de V , entonces
(u, v) =
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i=1
x
i
n

j=1
y
j
(v
i
, v
j
) =
n

i=1
x
i
y
i
(v
i
, v
i
) =
n

i=1
(v
i
) x
i
y
i
.
Luego tenemos las formula siguientes:
(u, v) =
n

i=1
(v
i
) x
i
y
i
, (u) =
n

i=1
(v
i
) x
2
i
. (3)
Ejemplo 3.3. Sea Bil
S
_
R
3
_
tal que (x, y, z) = x
2
y
2
. Entonces la base canonica e
1
, e
2
, e
3
es
-ortonormal.
Ejemplo 3.4. Sea Bil
S
_
Q
2
_
tal que (x, y) = 2x
2
. Entonces la base canonica e
1
, e
2
es -ortogonal.
Observar que no existe ning un vector v de Q
2
tal que (v) = 1, luego no existe ninguna base -ortonormal
de Q
2
.
Observaci on 3.3. Sea B una base de V . Es equivalente que B sea una base -ortogonal de V con que la
matriz M
B
() sea diagonal y que B sea una base -ortonormal de V con que la matriz M
B
() sea diagonal
y sus entradas diagonales sean 0, 1 o 1.
Denici on 3.5. Si W es un subespacio de V , la restricci on de a W es la funcion [
WW
: W W k.
Claramente [
WW
Bil
S
(W).
De las formulas (2) se deduce inmediatamente el siguiente:
Lema 3.5. Es = 0 si y solo si = 0.
7
Teorema 3.6. Existe una base -ortogonal de V .
Dem. Lo probaremos por induccion en n = dimV .
Si n = 1, toda base B = v de V es -ortogonal. Supongamos ahora que vale la tesis si la dimensi on
del espacio es n 1 y sea Bil
S
(V ) con dimV = n. Si = 0, entonces toda base de V es -ortogonal.
Supongamos ahora que ,= 0. Por el lema anterior es ,= 0, luego existe u V tal que (u) ,= 0.
Denimos V

mediante (v) = (v, u), v V . Observar que (u) = (u, u) = (u) ,= 0, luego
,= 0 y entonces dimKer = n 1. Aplicando la hip otesis de induccion restringida a Ker tenemos que
existe v
1
, . . . , v
n1
base de Ker tal que (v
i
, v
j
) = 0 si i ,= j.
Como u , Ker = [v
1
, . . . , v
n1
], entonces el conjunto B = v
1
, . . . , v
n1
, u es LI y al tener n elementos
es base de V . Como v
1
, . . . , v
n1
Ker resulta que v
1
, . . . , v
n1
son -ortogonales con u y luego B es
una base -ortogonal de V .
Denici on 3.6. Llamamos n ucleo de a
V
0
:= v V : (v, u) = 0, u V = v V : (u, v) = 0, u V .
Ejercicio 3.2. Probar que V
0
es un subespacio de V .
Denici on 3.7. Decimos que es no degenerada si V
0
= 0, es decir si
(u, v) = 0, v V u = 0.
Si W es un subespacio de V , decimos que es no degenerada en W si la restriccion de a W es no
degenerada.
Ejemplo 3.5. Consideremos la matriz identidad I M
n
(k) y
I
Bil
S
(k
n
),
I
(u, v) = u
t
I v = u
t
v,
u, v k
n
. Explcitamente

I
((x
1
, . . . , x
n
), (y
1
, . . . , y
n
)) = x
1
y
1
+ +x
n
y
n
.
Sea v = (v
1
, . . . , v
n
) k
n
,
v V
0
u
t
v = 0, u V e
t
i
v = 0, i = 1, . . . , n v
i
= 0, i = 1, . . . , n v = 0,
luego
I
es no degenerada.
Proposici on 3.7. Sea A M
n
(k) y consideremos
A
Bil
S
(k
n
),
A
(u, v) = u
t
Av. Vale V
0
= Ker(L
A
).
Dem.
v V
0
u
t
Av = 0, u V
I
(u, Av) = 0, u V Av = 0 v Ker(L
A
).
8
Teorema 3.8. Sea B = v
1
, . . . , v
n
una base -ortogonal de V y supongamos que ordenamos B de forma
tal que
(v
i
) = 0, i = 1, . . . , s,
(v
i
) ,= 0, i = s + 1, . . . , n.
Sea W = [v
s+1
, . . . , v
n
]. Vale lo siguiente:
1. V
0
= [v
1
, . . . , v
s
].
2. es no degenerada en W.
3. V = V
0
W.
Dem. Sea u V . Sabemos que existen unicos escalares a
1
, . . . , a
n
tales que u =

n
j=1
a
j
v
j
. Sea i
1, . . . , s. Aplicando la formula (3) obtenemos (v
i
, u) = a
i
(v
i
) = a
i
0 = 0, luego v
1
, . . . , v
s
pertenecen a
V
0
.
Sea ahora w V
0
, luego existen unicos escalares b
1
, . . . , b
n
tales que w =

n
j=1
b
j
v
j
. Al ser w V
0
, es
(w, v) = 0 para todo v V , en particular si i s + 1, . . . , n y aplicamos (3) obtenemos 0 = (w, v
i
) =
b
i
(v
i
) y como (v
i
) ,= 0, resulta b
i
= 0 para todo i = s + 1, . . . , n y w [v
1
, . . . , v
s
]. Esto completa la
prueba de V
0
= [v
1
, . . . , v
s
].
Como V
0
= [v
1
, . . . , v
s
], resulta
V = [v
1
, . . . , v
s
] [v
s+1
, . . . , v
n
] = V
0
W.
Probaremos ahora que es no degenerada en W. Sea w W tal que (w, v) = 0 para todo v W. Es
w =

n
j=s+1
b
j
v
j
, con b
s+1
, . . . , b
n
k. Si i s + 1, . . . , n, es v
i
W. Luego la misma cuenta que antes
nos prueba que 0 = (w, v
i
) = b
i
(v
i
) y como (v
i
) ,= 0 es b
i
= 0, para todo i = s + 1, . . . , n y resulta
w = 0.
Observaci on 3.4. El espacio W en la descomposicion anterior no es unico. Por ejemplo, si Bil
S
_
R
2
_
esta denida mediante ((x, y), (x

, y

)) = xx

, entonces es
_
R
2
_
0
= [(0, 1)] y podemos tomar como W a
cualquier recta por el origen distinta del eje Oy.
Denici on 3.8. Llamamos rango de al rango de M
B
(), siendo B una base cualquiera de V . Esta denicion
tiene sentido porque dos matrices congruentes siempre tienen el mismo rango.
Proposici on 3.9. La forma bilineal es no degenerada si y solo si rango() = n, siendo n = dimV .
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V y supongamos que ordenamos B de forma tal
que
(v
i
) = 0, i = 1, . . . , s,
(v
i
) ,= 0, i = s + 1, . . . , n.
En el teorema anterior probamos que V
0
= [v
1
, . . . , v
s
], luego es no degenerada si y solo si s = 0.
9
Por otro lado es
M
B
() =
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
(v
s+1
)
.
.
.
(v
n
)
_
_
_
_
_
_
_
_
_
_
,
luego rango() = rango (M
B
()) = n s. Esto implica que rango() = n si y solo si n s = n si y solo si
s = 0.
4. Matrices elementales
En esta secci on k es un cuerpo cualquiera.
Denici on 4.1. Sea A M
n
(k). Se llaman operaciones elementales en las las o columnas de A a las
siguientes:
1. Operaci on de tipo I. Intercambiar dos las o columnas de A.
2. Operaci on de tipo II. Multiplicar una la o columna de A por una constante no nula.
3. Operaci on de tipo III. Sumarle a una la o columna un m ultiplo de otra la o columna respectivamente.
Denici on 4.2. Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando
las operaciones elementales correspondientes a la matriz identidad.
Es decir que las matrices elementales son las siguientes:
Matrices de tipo I:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0 1
.
.
.
.
.
.
.
.
.
1 0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Matrices de tipo II:
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
p
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
, p ,= 0.
10
Matrices de tipo III:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1 q
.
.
.
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
o
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
.
.
.
q 1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
, q k.
Observaci on 4.1. Observar que la traspuesta de una matriz elemental es una matriz elemental del mismo
tipo.
Ejercicio 4.1. Probar que las matrices elementales son invertibles y hallar sus inversas.
Ejercicio 4.2. Probar que realizar una operacion elemental de tipo I, II o III en las columnas (las) de una
matriz A, equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo tipo.
Ejemplo 4.1. Sea A =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
y E =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
que se obtiene intercambiando las columnas
2 y 3 en la matriz identidad (matriz de tipo I). Observar que tenemos
A E =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
5 7 6 8
9 2 1 3
4 6 5 7
_
_
_
_
,
E A =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
=
_
_
_
_
1 2 3 4
9 1 2 3
5 6 7 8
4 5 6 7
_
_
_
_
.
Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas
2 y 3 de A, mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar
las las 2 y 3 de A.
Aplicaci on 4.1. C alculo del rango de una matriz.
Sea A M
n
(k). Multiplicar la matriz A (a izquierda o derecha) por una matriz invertible, es una
operacion que no afecta el rango de A. La matrices elementales son invertibles, luego multiplicar por ellas deja
invariante el rango de A. Por otro lado multiplicar por matrices elementales equivale a realizar operaciones
elementales. De lo anterior se deduce que realizar operaciones elementales en las las y columnas de A no
afecta al rango de A. Esto nos da un metodo muy simple para hallar el rango de una matriz, simplemente
realizamos operaciones elementales en sus las y columnas hasta transformarla en una matriz a la cual sea
simple calcular su rango. De hecho mediante este metodo se puede transformar cualquier matriz en una
matriz diagonal que en la diagonal principal tenga entradas que son solo 0 y 1, en este caso el rango es la
cantidad de unos que aparecen en la diagonal principal.
11
Ejemplo 4.2. Sea Bil
S
(R
3
) tal que su forma cuadratica asociada es
(x, y, z) = 7x
2
2y
2
+ 7z
2
+ 8xy + 2xz 4yz, (x, y, z) R
3
.
Luego si ( es la base canonica e R
3
, es
M
C
() =
_
_
7 4 1
4 2 2
1 2 7
_
_
.
Para calcular el rango de , observar que si primero le sumamos a la primer columna la segunda multiplicada
por 2 y luego a la tercer la le sumamos la primera multiplicada por 3, tenemos:
_
_
7 4 1
4 2 2
1 2 7
_
_

_
_
1 4 1
0 2 2
3 2 7
_
_

_
_
1 4 1
0 2 2
0 10 10
_
_
.
Luego el rango de coincide con el rango de la ultima matriz que claramente es 2. En particular esto nos
dice que degenera.
Aplicaci on 4.2. Diagonalizaci on de una forma bilineal simetrica.
La operacion que nos interesa consiste en transformar una matriz simetrica A en una de la forma Q
t
AQ,
siendo Q una matriz invertible. Observar que si Q es una matriz elemental de tipo I, II o III, entonces Q
t
AQ
es la matriz que se obtiene realizando la operacion elemental correspondiente en las las y columnas de A.
Por ejemplo sean
A =
_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_
, E
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
, E
2
=
_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Luego
E
t
1
AE
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
3 8 6 9
2 6 5 7
4 9 7 0
_
_
_
_
,
E
t
2
AE
2
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
2 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 2 3 6
2 5 6 11
3 6 8 15
6 11 15 20
_
_
_
_
.
Ejercicio 4.3. Probar que si realizar una operacion elemental en las columnas de A corresponde a multiplicar
por la derecha a A con una cierta matriz elemental E, entonces realizar la misma operacion elemental en
las las de A corresponde a multiplicar por la izquierda a A con E
t
.
Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal simetrica
Bil
S
(V ), lo cual corresponde a hallar una base -ortogonal de V .
12
Mostraremos el metodo mediante un ejemplo. Consideremos Bil
S
(R
3
) denida en el Ejemplo 4.2.
Primero sumamos a la tercer columna de A = M
C
() la segunda multiplicada por 1 y luego sumamos a la
tercer la la segunda multiplicada por 1.
_
_
7 4 1
4 2 2
1 2 7
_
_

_
_
7 4 3
4 2 0
1 2 9
_
_

_
_
7 4 3
4 2 0
3 0 9
_
_
. (4)
Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer la la
segunda multiplicada por 2.
_
_
7 4 3
4 2 0
3 0 9
_
_

_
_
1 4 3
0 2 0
3 0 9
_
_

_
_
1 0 3
0 2 0
3 0 9
_
_
. (5)
Finalmente le sumamos a la tercer columna la primera multiplicada por 3 y luego sumamos a la tercer la
la primera multiplicada por 3.
_
_
1 0 3
0 2 0
3 0 9
_
_

_
_
1 0 0
0 2 0
3 0 0
_
_

_
_
1 0 0
0 2 0
0 0 0
_
_
= D. (6)
Observar que la matriz obtenida en (4) corresponde a calcular E
t
1
AE
1
siendo
E
1
=
_
_
1 0 0
0 1 1
0 0 1
_
_
.
La matriz obtenida en (5) corresponde a calcular E
t
2
E
t
1
AE
1
E
2
, siendo
E
2
=
_
_
1 0 0
2 1 0
0 0 1
_
_
.
Finalmente la matriz obtenida en (6) corresponde a calcular E
t
3
E
t
2
E
t
1
AE
1
E
2
E
3
, siendo
E
3
=
_
_
1 0 3
0 1 0
0 0 1
_
_
.
Luego es D = Q
t
AQ, siendo
Q = E
1
E
2
E
3
=
_
_
1 0 3
2 1 5
0 0 1
_
_
.
Esto nos dice que si
B = (1, 2, 0), (0, 1, 0), (3, 5, 1)
entonces M
B
() = D y B es una base -ortogonal de R
3
.
13
Un metodo para obtener la matriz Q es el siguiente, escribimos a la izquierda la matriz A y a la
derecha la matriz identidad I, luego realizamos operaciones elementales en A y cada vez que hacemos una
operacion elemental en las colummnas de A, tambien la hacemos en las columnas de I, pero cuando hacemos
operaciones elementales en las las de A no hacemos nada en la matriz I. Al nalizar el algoritmo, cuando
en la izquierda obtenemos la matriz diagonal D, en la derecha esta la matriz de congruencia Q. Veamos esto
en el ejemplo anterior:
_
_
7 4 1
4 2 2
1 2 7

1 0 0
0 1 0
0 0 1
_
_

_
_
7 4 3
4 2 0
1 2 9

1 0 0
0 1 1
0 0 1
_
_

_
_
7 4 3
4 2 0
3 0 9

1 0 0
0 1 1
0 0 1
_
_

_
_
1 4 3
0 2 0
3 0 9

1 0 0
2 1 1
0 0 1
_
_

_
_
1 0 3
0 2 0
3 0 9

1 0 0
2 1 1
0 0 1
_
_

_
_
1 0 0
0 2 0
3 0 0

1 0 3
2 1 5
0 0 1
_
_

_
_
1 0 0
0 2 0
0 0 0

1 0 3
2 1 5
0 0 1
_
_
, luego D =
_
_
1 0 0
0 2 0
0 0 0
_
_
, Q =
_
_
1 0 3
2 1 5
0 0 1
_
_
.
5. Formas bilineales simetricas reales
En esta secci on el cuerpo de base k es R y V es un R-espacio vectorial de dimension nita.
Denici on 5.1. Sean Bil
S
(V ) y la forma cuadratica asociada a .
1. es denida positiva si (v) > 0, v ,= 0.
2. es denida negativa si (v) < 0, v ,= 0.
3. es denida si es denida positiva o es denida negativa.
4. es semidenida positiva si (v) 0, v V y existe 0 ,= v
0
V tal que (v
0
) = 0.
5. es semidenida negativa si (v) 0, v V y existe 0 ,= v
0
V tal que (v
0
) = 0.
6. es semidenida si es semidenida positiva o es semidenida negativa.
7. es no denida si existen v
1
y v
2
en V tales que (v
1
) > 0 y (v
2
) < 0.
8. es no degenerada si lo es , es decir si
(u, v) = 0, v V u = 0.
Decimos que una forma bilineal simetrica verica una propiedad de las anteriores si la verica su forma
cuadratica asociada, por ejemplo decimos que es denida positiva si lo es , etcetera.
Observaci on 5.1. es denida positiva si y solo si es un producto interno en V .
14
Teorema 5.1. Si Bil
S
(V ) y es la forma cuadr atica asociada a , entonces existen subespacios V
+
y
V

de V tales que
1. es denida positiva en V
+
y es denida negativa en V

.
2. V
+
y V

son -ortogonales.
3. V = V
0
V
+
V

.
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V . Podemos suponer B ordenada de forma tal que
(v
i
) = a
i
, i = 1, . . . , p
(v
i
) = a
i
, i = p + 1, . . . , r
(v
i
) = 0, i = r + 1, . . . , n.
siendo a
i
> 0, i = 1, . . . , r. Es decir que la matriz asociada a es
M
B
() =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
p
a
p+1
.
.
.
a
r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Sabemos que V
0
= [v
r+1
, . . . , v
n
]. Sean
V
+
= [v
1
, . . . , v
p
], V

= [v
p+1
, . . . , v
r
].
Es claro que V = V
0
V
+
V

. Adem as como B es una base -ortogonal, sus vectores son -ortogonales


dos a dos, luego V
+
y V

son -ortogonales. Por otro lado observemos que si v =

n
i=1
x
i
v
i
V , con
x
1
, . . . , x
n
R, es
(v) = (v, v) =
_
_
n

i=1
x
i
v
i
,
n

j=1
x
j
v
j
_
_
=
n

i,j=1
x
i
x
j
(v
i
, v
j
) =
n

i=1
x
2
i
(v
i
, v
i
) =
n

i=1
x
2
i
(v
i
)
=
p

i=1
a
i
x
2
i

r

i=p+1
a
i
x
2
i
.
Sea 0 ,= w V
+
. Es w =

p
i=1
y
i
v
i
, con y
1
, . . . , y
p
R y alg un y
i
,= 0, luego
(w) =
p

i=1
a
i
y
2
i
> 0.
Esto prueba que es denida positiva en V
+
. An alogamente se prueba que es denida negativa en V

.
Observaci on 5.2. En el teorema anterior, la dimension de V
+
es la cantidad de entradas diagonales positivas
de M
B
() y la dimension de V

es la cantidad de entradas diagonales negativas de M


B
().
15
Ejemplo 5.1. Sea Bil
S
(V ), V = R
2
, tal que (x, y) = x
2
y
2
, x, y R. Es facil de probar que el
rango de es 2, luego es no degenerada y V
0
= 0. Observar que las bases
( = (1, 0), (0, 1) y B = (2, 1), (1, 2) .
son -ortogonales. Esto da lugar a dos descomposiciones del tipo V = V
+
V

:
R
2
= [(1, 0)] [(0, 1)] y R
2
= [(2, 1), (1, 2)] .
Luego no hay unicidad respecto a los subespacios V
+
y V

.
Denici on 5.2. Sea Bil
S
(V ). Decimos que dos subespacios V
+
y V

forman una -descomposici on de


V si verican
1. es denida positiva en V
+
y es denida negativa en V

.
2. V
+
y V

son -ortogonales.
3. V = V
0
V
+
V

.
El teorema anterior nos prueba que siempre existe una -descomposicion de V .
Observaci on 5.3. Sea V = V
0
V
+
V

una -descomposicion de V , entonces:


1. es denida positiva en V
+
y es denida negativa en V

.
2. Si V
0
,= 0, entonces es semidenida positiva en V
0
V
+
y es semidenida negativa en V
0
V

.
3. es denida positiva si y solo si V

= V
0
= 0.
4. es denida negativa si y solo si V
+
= V
0
= 0.
5. es semidenida positiva si y solo si V

= 0 y V
0
,= 0.
6. es semidenida negativa si y solo si V
+
= 0 y V
0
,= 0.
7. es no denida si y solo si V

,= 0 y V
+
,= 0.
8. es no degenerada si y solo si V
0
= 0.
En particular lo anterior implica que si es semidenida entonces degenera.
Ejercicio 5.1. Interpretar la observaci on anterior en terminos de las entradas diagonales de una repre-
sentaci on matricial diagonal de .
Teorema 5.2. Sean V = V
0
V
+
V

y V = V
0
W
+
W

dos -descomposiciones de V , es decir


1. es denida positiva en V
+
y es denida negativa en V

.
2. V
+
y V

son -ortogonales.
3. es denida positiva en W
+
y es denida negativa en W

.
4. W
+
y W

son -ortogonales.
16
Entonces dimV
+
= dimW
+
y dimV

= dimW

.
Dem. Sea v W

(V
+
V
0
). Como v V
+
V
0
, entonces existen unicos v
0
V
0
y v
+
V
+
tales que
v = v
+
+v
0
. Luego
(v) = (v
+
+v
0
) = (v
+
) + 2 (v
+
, v
0
) + (v
0
) = (v
+
) 0.
Por otro lado, como v W

, si fuese v ,= 0 sera (v) < 0 lo cual nos lleva a una contradicci on. Entonces
la unica posibilidad es v = 0 y resulta W

(V
+
V
0
) = 0. Como es
V
0
V
+
V

= V W

+ (V
+
V
0
) = W

(V
+
V
0
) ,
deducimos
dimV
0
+ dimV
+
+ dimV

dimW

+ dimV
+
+ dimV
0
.
Luego es dimV

dimW

. Razonando an alogamente con V

(W
+
V
0
) deducimos que dimW

dimV

y resulta dimV

= dimW

. Finalmente tomando dimensiones en V = V


0
V
+
V

y V = V
0
W
+
W

deducimos que dimV


+
= dimW
+
.
Del teorema anterior y la Observaci on 5.2 se deduce inmediatamente el siguiente.
Corolario 5.3 (Ley de inercia de Sylvester). El n umero de entradas positivas, negativas y nulas de una
matriz diagonal asociada a una forma cuadr atica no depende de la representaci on diagonal.
Denici on 5.3. Sean V = V
0
V
+
V

una -descomposicion de V . Llamamos ndice de a dimV


+
y signatura de a dimV
+
dimV

. Por el teorema anterior esta denicion no depende de V


+
y V

. La
signatura, el ndice y el rango son los invariantes de .
Observaci on 5.4. Consideremos Bil
S
(V ) siendo dimV = n y B una base -ortogonal de V . Sean s
la signatura de , r el rango de , p el n umero de entradas positivas de M
B
(), q el n umero de entradas
negativas de M
B
() y t el n umero de entradas nulas de M
B
(). Entonces el ndice de es p y tenemos las
siguientes relaciones
s = p q, r = p +q
p =
1
2
(r +s), q =
1
2
(r s), t = n r.
En particular es 2p = r +s, luego los tres invariantes quedan determinados conociendo dos de ellos.
Proposici on 5.4. Si Bil
S
(V ), entonces existe una base -ortonormal de V .
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V . Podemos suponer B ordenada de forma tal que
(v
i
) = 0, i = 1, . . . , s
(v
i
) > 0, i = s + 1, . . . , p
(v
i
) < 0, i = p + 1, . . . , n.
Observar que podemos escribir
(v
i
) = a
2
i
, i = s + 1, . . . , p
(v
i
) = b
2
i
, i = p + 1, . . . , n.
17
siendo a
i
> 0, i = s + 1, . . . , p y b
i
> 0, i = p + 1, . . . , n. Denimos
w
i
= v
i
, i = 1, . . . , s
w
i
=
1
a
i
v
i
, i = s + 1, . . . , p
w
i
=
1
b
i
v
i
, i = p + 1, . . . , n.
La base ( = w
1
, . . . , w
n
es claramente -ortogonal y
(w
i
) =
_
1
a
i
v
i
_
=
1
a
2
i
(v
i
) = 1, i = s + 1, . . . , p
(w
i
) =
_
1
b
i
v
i
_
=
1
b
2
i
(v
i
) = 1, i = p + 1, . . . , n.
Luego ( es una base -ortonormal de V .
Ejemplo 5.2. Sea Bil
S
(V ), V = R
2
, tal que (x, y) = x
2
y
2
, x, y R. En el ejemplo 5.1 vimos que
(2, 1), (1, 2) es una base -ortogonal de R
2
, luego
__
2

3
,
1

3
_
,
_
1

3
,
2

3
__
es una base -ortonormal de R
2
(otra base -ortonormal es la canonica).
Proposici on 5.5 (Ley de inercia de Sylvester para matrices). Si A es una matriz simetrica real, entonces el
n umero de entradas positivas, negativas y nulas de una matriz diagonal congruente con A es independiente
de la matriz diagonal.
Dem. Sea Bil
S
(R
n
) denida por (u, v) = u
t
Av. Si D es una matriz diagonal congruente con A,
entonces existe B base de R
n
tal que M
B
() = D. Luego la Ley de inercia de Sylvester nos dice que el
n umero de entradas positivas, negativas y nulas de D depende solo de (por lo tanto de A) y no de D.
Denici on 5.4. Sea A M
n
(R) simetrica y D una matriz diagonal congruente con A. Denimos el ndice
de A como el n umero de entradas diagonales positivas de D y la signatura de A como la diferencia entre el
n umero de entradas diagonales positivas y el de entradas diagonales negativas de D. La Ley de Inercia de
Sylvester para matrices nos garantiza que esta denicion no depende de la matriz diagonal D.
Observar que el ndice y la signatura de A coinciden con el ndice y la signatura de
A
Bil
S
(R
n
)
denida por
A
(u, v) = u
t
Av. La signatura, el ndice y el rango son los invariantes de la matriz simetrica
A.
Observaci on 5.5. De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos
matrices simetricas son congruentes, entonces tienen los mismos invariantes.
Teorema 5.6. Si A es una matriz simetrica real, entonces A es congruente con una unica matriz diagonal
18
D de la forma
D =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
1
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
. (7)
Dem. Sea
A
Bil
S
(R
n
) denida por
A
(u, v) = u
t
Av. Por la Proposicion 5.4 sabemos que existe B
base
A
-ortonormal de R
n
. Si D = M
B
(
A
), entonces podemos considerar B ordenada de forma tal que D
tiene la forma (7). Si ( es la base canonica de R
n
, entonces es A = M
C
(
A
) y D = Q
t
AQ, siendo Q =
C
[id ]
B
.
Esto prueba la existencia de la matriz D.
Para probar la unicidad, si la matriz A es congruente con D y con

D, siendo D y

D matrices diagonales
de la forma (7), entonces D y

D son congruentes entre s y luego tienen los mismos invariantes. Como el
ndice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la
diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen 1,
resulta que D y

D tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de
entradas diagonales que valen 1, luego D =

D.
Corolario 5.7. Dos matrices simetricas reales son congruentes si y solo si tienen los mismos invariantes.
Dem. Ya sabemos que si dos matrices simetricas reales son congruentes, entonces tienen los mismos
invariantes. Para probar el recproco, si A y B son matrices simetricas, entonces sabemos que A es congruente
con una unica matriz diagonal D
A
de forma (7) y B es congruente con una unica matriz diagonal D
B
de
forma (7). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales que
valen 1 en D
A
y D
B
depende solo de los invariantes de A y de B respectivamente y estos coinciden,
entonces D
A
= D
B
. Luego A y B son congruentes entre s.
Teorema 5.8. Sea Bil
S
(V ), siendo V un espacio vectorial real con producto interno de dimensi on
nita. Entonces existe una base ortonormal B de V tal que M
B
() es diagonal.
Dem. Sea ( = w
1
, . . . , w
n
una base ortonormal cualquiera de V y A = M
C
(). La matriz A es simetrica
real, luego existen matrices D y Q = (q
ij
) en M
n
(R) tales que D es diagonal, Q es ortogonal y
D = Q
1
AQ = Q
t
AQ.
Sea B = v
1
, . . . , v
n
el conjunto denido por v
j
=

n
i=1
q
ij
w
i
, j = 1, . . . , n. Como la matriz Q es ortogonal
y la base ( es ortonormal, entonces el conjunto B es una base ortonormal de V y Q =
C
[id ]
B
. Luego
D = Q
t
AQ = (
C
[id ]
B
)
t
M
C
()
C
[id ]
B
= M
B
().
19
Corolario 5.9. Sea Bil
S
(V ), B una base de V y A = M
B
(). Entonces la cantidad de entradas
diagonales positivas, negativas y nulas de una representaci on matricial diagonal cualquiera de coincide
respectivamente con la cantidad de valores propios positivos, negativos y nulos de A.
Dem. Por la Ley de Inercia de Sylvester, basta probar que se cumple el enunciado para alguna repre-
sentaci on matricial diagonal de .
Sea , ) el unico producto interno de V que hace que B sea una base ortonormal de V . Aplicando el
teorema anterior sabemos que existe una base ortonormal

B de V tal que D = M

B
() es diagonal. Luego es
A = M
B
() = Q
t
M

B
() Q = Q
t
DQ, Q =

B
[id ]
B
.
Como B y

B son dos bases ortonormales, entonces Q =

B
[id ]
B
es una matriz ortogonal i.e. Q
t
= Q
1
. Luego
A = Q
1
DQ y resulta que A y D tienen los mismos valores propios. Por otro lado, como D es una matriz
diagonal, tenemos que los valores propios de D coinciden con sus entradas diagonales. Luego la cantidad de
entradas diagonales positivas, negativas y nulas de D es la cantidad de valores propios positivos, negativos
y nulos de D y estos coinciden con los de A.
6. Supercies cuadricas
Denici on 6.1. Una supercie cu adrica es un subconjunto de R
3
de la forma
o =
_
(x, y, z) R
3
: a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz +b
1
x +b
2
y +b
3
z +c = 0
_
,
siendo A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
,= 0.
6.1. Ejemplos de supercies cuadricas.
Ejemplos con det A ,= 0.
1. Hiperboloide de una hoja:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1.
2. Hiperboloide de dos hojas:
x
2
a
2

y
2
b
2

z
2
c
2
= 1.
3. Elipsoide:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1.
4. Cono:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 0.
5. Punto:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 0 ((x, y, z) = (0, 0, 0)).
6. Conjunto vaco:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1.
Ejemplos con det A = 0.
1. Paraboloide elptico:
x
2
a
2
+
y
2
b
2
z = 0.
2. Paraboloide hiperb olico:
x
2
a
2

y
2
b
2
z = 0.
20
3. Cilindro elptico:
x
2
a
2
+
y
2
b
2
= 1.
4. Cilindro hiperb olico:
x
2
a
2

y
2
b
2
= 1.
5. Cilindro parab olico:
x
2
a
2
y = 0.
6. Dos planos paralelos:
x
2
a
2
= 1 (x = a y x = a).
7. Dos planos secantes:
x
2
a
2

y
2
b
2
= 0 (
x
a

y
b
= 0 y
x
a
+
y
b
= 0).
8. Un plano (doble):
x
2
a
2
= 0 (x = 0).
9. Una recta (doble):
x
2
a
2
+
y
2
b
2
= 0 (x = 0 e y = 0).
10. Conjunto vaco:
x
2
a
2
= 1.
6.2. Clasicacion de supercies cuadricas.
Lo que probaremos a continuaci on es que toda supercie cu adrica coincide con una de las anteriores, a
menos de trasladar, rotar o intercambiar los ejes de coordenadas.
Sea
o =
_
(x, y, z) R
3
: a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz +b
1
x +b
2
y +b
3
z +c = 0
_
,
siendo A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
,= 0 .
Denimos : R
3
R y : R
3
R mediante:
(x, y, z) = a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz, (x, y, z) = b
1
x +b
2
y +b
3
z.
Claramente es una forma cuadratica y
_
R
3
_

. Sea la forma bilineal simetrica asociada a . Observar


que si escribimos X =
_
_
x
y
z
_
_
y B =
_
_
b
1
b
2
b
3
_
_
, entonces es
(X) = X
t
AX = X, AX), (X, Y ) = X, AY ), (X) = X, B), X R
3
,
siendo , ) el producto interno usual (escalar) de R
3
. Luego
o =
_
X R
3
: (X) +(X) +c = 0
_
.
Como A es una matriz simetrica real, entonces existe Q M
3
(R) matriz ortogonal tal que Q
t
AQ = D,
siendo D =
_
_

1
0 0
0
2
0
0 0
3
_
_
. Observar que det A =
1

3
.
21
6.3. Caso det A ,= 0 (
1

3
,= 0).
En este caso la matriz A es invertible, luego existe un unico X
0
R
3
tal que
B + 2 AX
0
= 0 X
0
=
1
2
A
1
B.
Realizamos el cambio de variable X =

X +X
0
(traslacion de ejes), luego
(X) +(X) +c = (

X +X
0
) +(

X +X
0
) +c
= (

X) + 2 (

X, X
0
) + (X
0
) +(

X) +(X
0
) +c
= (

X) + 2 (

X, X
0
) +(

X) + (X
0
) +(X
0
) +c
= (

X) + 2
_

X, AX
0
_
+
_

X, B
_
+ (X
0
) +(X
0
) +c
= (

X) +
_

X, 2 AX
0
+B
_
+ (X
0
) +(X
0
) +c
= (

X) +d,
siendo d = (X
0
) +(X
0
) +c. Entonces la ecuaci on de o respecto a las coordenadas

X es
o : (

X) +d = 0.
Realizamos el cambio de variable

X = Q

X. Como Q es una matriz ortogonal, esto corresponde realizar un
giro de ejes (det Q = 1) o un giro de ejes seguido de una simetra especular (det Q = 1). Es
(

X) = (Q

X) = (Q

X)
t
AQ

X =

X
t
Q
t
AQ

X =

X
t
D

X =
1
x
2
+
2
y
2
+
3
z
2
,

X =
_
_
x
y
z
_
_
.
Entonces la ecuaci on de o respecto a las coordenadas x, y y z es
o :
1
x
2
+
2
y
2
+
3
z
2
+d = 0.
Consideremos primero el caso en el cual d = 0.
1. Si
1
,
2
y
3
tienen el mismo signo, entonces o es un punto.
2. Si
1
,
2
y
3
no tienen el mismo signo, entonces o es un cono.
Consideremos ahora el caso en que d ,= 0. A menos de intercambiar x, y y z tenemos los casos siguientes:
1. Si
1
,
2
,
3
y d tienen el mismo signo, entonces o es el conjunto vaco.
2. Si
1
,
2
,
3
tienen el mismo signo y este signo es distinto del signo de d, entonces o es un elipsoide.
3. Si sg
1
= sg
2
,= sg
3
= sg d, entonces o es un hiperboloide de una hoja.
4. Si sg
1
,= sg
2
= sg
3
= sg d, entonces o es un hiperboloide de dos hojas.
22
6.3.1. Caso det A = 0 (
1

3
= 0).
En este caso realizamos primero el cambio de variable X = Q

X.

_
Q

X
_
+
_
Q

X
_
+c =

X
t
D

X +
_
Q

X, B
_
+c =

X
t
D

X +
_

X, Q
t
B
_
+c.
Sean

X =
_
_
x
y
z
_
_
y
_
_

3
_
_
= Q
t
_
_
b
1
b
2
b
3
_
_
. Entonces la ecuaci on de o respecto a las coordenadas x, y y z
es
o :
1
x
2
+
2
y
2
+
3
z
2
+
1
x +
2
y +
3
z +c = 0.
Observar que como A ,= 0, entonces no puede ser
1
=
2
=
3
= 0; luego a menos de intercambiar los
ejes tenemos dos posibilidades:
1
,= 0,
2
=
3
= 0 y
1
,= 0,
2
,= 0,
3
= 0.
Caso
1
,= 0,
2
=
3
= 0. Es
o :
1
x
2
+
1
x +
2
y +
3
z +c = 0.
Si
2
,= 0 o
3
,= 0, entonces realizamos el cambio de variable
_
_
_
x = x
y = a y b z
z = b y +a z
y obtenemos
o :
1
x
2
+
1
x +
2
(a y b z) +
3
(b y +a z) +c = 0
o :
1
x
2
+
1
x + (
2
a +
3
b) y + (
3
a
2
b) z +c = 0
Elegimos a y b tales que
_

3
a
2
b = 0
a
2
+b
2
= 1
Observar que a y b se obtienen intersectando la circunferencia x
2
+y
2
= 1 con la recta
3
x
2
y = 0. Esto
asegura la existencia de a y b; adem as implica que existe [0, 2] tal que a = cos y b = sen , luego
el cambio de coordenadas representa un giro de ejes alrededor del eje O x. Para estos valores de a y b la
ecuaci on de o respecto a las coordenadas x, y y z queda
o :
1
x
2
+
1
x + y +c = 0, con =
2
a +
3
b.
Observar que las rectas de ecuaci on
2
x +
3
y = 0 y
3
x
2
y = 0 no coinciden, luego =
2
a +
3
b ,= 0
y o es un cilindro parab olico.
Si
2
=
3
= 0, entonces:
o :
1
x
2
+
1
x +c = 0.
Sea =
2
1
4
1
c. Tenemos las siguientes posibilidades:
1. Si < 0, entonces o es el conjunto vaco.
2. Si > 0, entonces o son dos planos paralelos: x =

1
+

2
1
y x =

1

2
1
.
3. Si > 0, entonces o es un plano (doble): x =

1
2
1
.
23
Caso
1
,= 0,
2
,= 0 y
3
= 0. Es
o :
1
x
2
+
2
y
2
+
1
x +
2
y +
3
z +c = 0.
Si hacemos la traslacion de ejes
_

_
x = x

1
2
1
y = y

2
2
2
z = z
,
entonces la ecuaci on de o respecto a las coordenadas x, y y z queda
o :
1
x
2
+
2
y
2
+
3
z + = 0,
siendo = c

2
1
4
1


2
2
4
2
.
Caso
3
= 0. Es o :
1
x
2
+
2
y
2
+ = 0
1. Si = 0, entonces tenemos dos posibilidades:
a) Si sg
1
= sg
2
, entonces o es la recta (doble) x = 0 y y = 0.
b) Si sg
1
,= sg
2
, entonces o son dos planos secantes y =
_

2
x e y =
_

2
x.
2. Si ,= 0 entonces tenemos dos posibilidades:
a) Si sg
1
= sg
2
= sg , entonces o es el conjunto vaco.
b) Si sg
1
= sg
2
,= sg , entonces o es un cilindro elptico.
c) Si sg
1
,= sg
2
, entonces o es un cilindro hiperb olico.
Caso
3
,= 0. Es o :
1
x
2
+
2
y
2
+
3
z + = 0.
1. Si sg
1
= sg
2
, entonces o es un paraboloide elptico.
2. Si sg
1
,= sg
2
, entonces o es un paraboloide hiperb olico.
Esto concluye la clasicacion de las supercies cu adricas.
6.4. Ejemplo
Sea o : 2 x
2
+ y
2
z
2
+ 2 xz + 4 x 4 y + 2 z + 3 = 0. Es A =
_
_
2 0 1
0 1 0
1 0 1
_
_
, luego det A = 3 ,= 0
y sabemos que existe un vector X
0
tal que 2 AX
0
+ B = 0, siendo B = (4, 1, 2). Calculando obtenemos
X
0
= (1, 2, 0), luego realizando el cambio de variable x = x 1, y = y + 2 y z = z obtenemos
o : 2 x
2
+ y
2
z
2
+ 2 x z 3 = 0.
Observar que det A = 3 implica que el producto de los valores propios de A es negativo, por otro lado
la suma de los valores propios de A coincide con tr A = 2 > 0, luego necesariamente hay un valor propio
24
negativo y dos positivos. El valor de d se obtiene substituyendo las coordenadas de X
0
en la formula que
dene a o:
d = 2(1)
2
+ (2)
2
(0)
2
+ 2(1)(0) + 4(1) 4(2) + 2(0) + 3 = 3.
Luego realizando el cambio de variable

X = Q

X obtenemos una ecuaci on de la forma a
2
x
2
+b
2
y
2
c
2
z
2
3 =
0, siendo a
2
, b
2
y c
2
los valores propios de A. Operando llegamos a
a
2
3
x
2
+
b
2
3
y
2

c
2
3
z
2
= 1
que es la ecuaci on de un hiperboloide de una hoja.
Observar que en este caso podemos hallar explcitamente los valores propios, estos son 1,
1+

13
2
y
1

13
2
, luego la ecuaci on de o queda
1
3
x
2
+
_
1 +

13
6
_
y
2

_
1 +

13
6
_
z
2
= 1.
7. Formas multilineales alternadas
Sea V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en V se dice alternada
si verica:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 (8)
cada vez que existan i ,= j tales que v
i
= v
j
.
Observar que si es una n-forma alternada, entonces verica:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) , i ,= j, v
1
, . . . , v
n
V. (9)
En efecto, es
0 = (v
1
, . . . , v
i
+v
j
, . . . , v
i
+v
j
, . . . , v
n
)
= (v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) + (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
)
+ (v
1
, . . . , v
j
, . . . , v
j
, . . . , v
n
)
= 0 + (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) + 0
= (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) ,
luego (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
).
Recprocamente, si car k ,= 2 y es una n-forma multilineal que verica (9) entonces verica (8):
Sean v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
V con v
i
= v
j
e i ,= j. Utilizando (9) y que v
i
= v
j
obtenemos:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) .
Luego 2 (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 y como car k ,= 2 es (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0.
Observar que lo anterior prueba que (8) y (9) son equivalentes si car k ,= 2.
25
Escribiremos
Alt
k
(V ) = : V V
. .
k
k : es una k-forma multilineal alternada, k = 1, 2, . . .
Es un ejercicio el vericar que Alt
k
(V ) es un subespacio del espacio de las k-formas multilineales en V , luego
Alt
k
(V ) es un espacio vectorial. Observar que Alt
1
(V ) = V

. Denimos Alt
0
(V ) := k.
Ejemplo 7.1. Si V = R
3
, denimos Alt
2
(V ) mediante ((x, y, z), (x

, y

, z

)) = xy

y x

+2 y z

2 y

z.
Observar que podemos reescribir mediante:

_
(x, y, z),
_
x

, y

, z

__
= xy

y x

+ 2 y z

2 y

z = xy

+y
_
x

+ 2 z

_
2 y

z
= (x, y, z)
_
_
y

+ 2 z

2 y

_
_
= (x, y, z)
_
_
0 1 0
1 0 2
0 2 0
_
_
_
_
x

_
_
. (10)
De esta forma es facil probar que es una 2-forma alternada en R
3
. Observar que la matriz en la igualdad
(10) es antisimetrica, es decir verica A
t
= A.
Ejemplo 7.2. Si V = R
n
, denimos Alt
n
(V ) mediante la funcion determinante:
((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =

x
11
x
1n
.
.
.
.
.
.
x
n1
x
nn

.
De ahora en adelante supondremos que V es un espacio vectorial de dimension nita n.
Proposici on 7.1. Alt
k
(V ) = 0 para todo k > n.
Dem. Consideremos e
1
, . . . , e
n
una base de V y sea Alt
k
(V ).
Sean v
1
, . . . , v
k
V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
(v
1
, . . . , v
k
) =
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
==j
k
=1
a
j
1
a
j
k
(e
j
1
, . . . , e
j
k
) .
Como k > n, en el conjunto e
j
1
, . . . , e
j
k
necesariamente hay elementos repetidos, luego (e
j
1
, . . . , e
j
k
) = 0,
j
1
, . . . , j
k
y (v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
V son arbitrarios se deduce que = 0
Proposici on 7.2. Supongamos que e
1
, . . . , e
n
es una base de V y Alt
k
(V ), k n. Entonces = 0
si y solo si
(e
i
1
, . . . , e
i
k
) = 0, i
1
, . . . , i
k
1, . . . , n tales que 1 i
1
< i
2
< < i
k
n. (11)
Dem. Es claro que = 0 implica (11).
26
Supongamos que verica (11). Sean v
1
, . . . , v
k
V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
(v
1
, . . . , v
k
) =
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
==j
k
=1
a
j
1
a
j
k
(e
j
1
, . . . , e
j
k
) . (12)
Observar que si existen p ,= q tales que e
jp
= e
jq
, entonces (e
j
1
, . . . , e
j
k
) = 0. Por otro lado, si e
j
1
, . . . , e
j
k
son
distintos entre s, podemos reordenarlos para obtener un conjunto e
i
1
, . . . , e
i
k
con 1 i
1
< i
2
< < i
k
n.
Notar que siempre podemos pasar de la k-upla (e
j
1
, . . . , e
j
k
) a la k-upla (e
i
1
, . . . , e
i
k
) realizando una cantidad
nita de intercambios entre los elementos de (e
j
1
, . . . , e
j
k
), cada intercambio corresponde a un cambio de
signo en , de donde aplicando (11) obtenemos
(e
j
1
, . . . , e
j
k
) = (e
i
1
, . . . , e
i
k
) = 0.
Luego todos los sumandos de (12) son nulos y (v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
V son arbitrarios se
deduce que = 0.
Corolario 7.3. Supongamos que e
1
, . . . , e
n
es una base de V y , Alt
k
(V ), k n. Entonces = si
y solo si
(e
i
1
, . . . , e
i
k
) = (e
i
1
, . . . , e
i
k
) , i
1
, . . . , i
k
1, . . . , n tales que 1 i
1
< i
2
< < i
k
n.
Dem. Aplicar la proposicion anterior a Alt
k
(V ).
Observaci on 7.1. Llamaremos o
n
al conjunto de permutaciones de n elementos. Es decir que o
n
es el conjunto
de biyecciones del conjunto 1, 2, . . . , n en s mismo. Si o
n
, llamaremos sg() al signo de .
Recordemos como se calcula el signo de una permutaci on. Por ejemplo, si =
_
1 2 3 4
3 1 4 2
_
, entonces
en la cuaterna (3, 1, 4, 2) tenemos:
el 3 esta en inversi on con el 1 y el 2,
El 1 no esta en inversi on con ninguno,
el 4 esta en inversi on con el 2,
luego el n umero total de inversiones es 2 + 0 + 1 = 3 y por lo tanto sg() = (1)
3
= 1.
Sea Alt
k
(V ). Consideremos i, j 1, . . . , k, i ,= j y denimos o
k
como la trasposicion que
intercambia i con j, entonces la condici on de que sea alternada se reeja en

_
v
(1)
, . . . , v
(k)
_
= (v
1
, . . . , v
k
) , v
1
, . . . , v
k
V.
De hecho este resultado se generaliza al siguiente (omitimos la prueba):
Proposici on 7.4. Sea Alt
k
(V ) y o
k
, entonces

_
v
(1)
, . . . , v
(k)
_
= sg() (v
1
, . . . , v
k
) , v
1
, . . . , v
k
V.
27
Denici on 7.1. Si
1
, . . . ,
k
V

, denimos
1

k
: V V
. .
k
k mediante
(
1

k
) (v
1
, . . . , v
k
) =

1
(v
1
)
1
(v
k
)
.
.
.
.
.
.

k
(v
1
)
k
(v
k
)

, v
1
, . . . , v
v
V.
Claramente
1

k
Alt
k
(V ),
1
, . . . ,
k
V

.
Ejemplo 7.3. Si , V

es Alt
2
(V ) y
( ) (u, v) =

(u) (v)
(u) (v)

= (u) (v) (v) (u), u, v V.


Consideremos V = R
3
, e
1
, e
2
, e
3
la base canonica y e

1
, e

2
, e

3
la base dual en V

, es decir
e

1
(x, y, z) = x, e

2
(x, y, z) = y, e

3
(x, y, z) = z.
Entonces
(e

1
e

2
)
_
(x, y, z),
_
x

, y

, z

__
=

x x

y y

= xy

y x

,
(e

1
e

3
)
_
(x, y, z),
_
x

, y

, z

__
=

x x

z z

= xz

z x

,
(e

2
e

3
)
_
(x, y, z),
_
x

, y

, z

__
=

y y

z z

= y z

z y

,
Observar que si es la 2-forma del ejemplo 7.1, entonces = e

1
e

2
+ 2 e

2
e

3
.
Ejemplo 7.4. Si , , V

es Alt
3
(V ) y
( ) (u, v, w) =

(u) (v) (w)


(u) (v) (w)
(u) (v) (w)

Si consideramos de nuevo V = R
3
, e
1
, e
2
, e
3
la base canonica y e

1
, e

2
, e

3
la base dual en V

, entonces
(e

1
e

2
e

3
)
_
(x, y, z),
_
x

, y

, z

_
,
_
x

, y

, z

__
=

x x

y y

z z

.
La prueba de las siguientes propiedades es simple y queda como ejercicio.
1. = 0 y = , , V

.
2. Si existen i ,= j tales que
i
=
j
, entonces
1

i

j

k
= 0.
3.
(1)

(k)
= sg()
1

k
, o
k
; en particular

1

i

j

k
=
1

j

i

k
.
28
Teorema 7.5. Sea e
1
, . . . , e
n
una base de V y e

1
, . . . , e

n
la base dual en V

, entonces
B =
_
e

i
1
e

i
k
: 1 i
1
< < i
k
n
_
es una base de Alt
k
(V ), para todo k = 1, . . . , n.
Dem. Sea k 1, . . . , n y Alt
k
(V ). Probaremos que se escribe en forma unica como combinacion
lineal de B, es decir que existen unicos a
i
1
,...,i
k
k, 1 i
1
< < i
k
n tales que
=

1i
1
<<i
k
n
a
i
1
,...,i
k
e

i
1
e

i
k
.
Observar que aplicando el Corolario 7.3, obtenemos que se verica esta ultima igualdad si y solo si
(j
1
, . . . , j
k
) =

1i
1
<<i
k
n
a
i
1
,...,i
k
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) , (13)
para todo j
1
, . . . , j
k
1, . . . , n con 1 j
1
< < j
k
n.
Calculando tenemos dos casos posibles:
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) =

i
1
(e
j
1
) e

i
1
(e
j
k
)
.
.
.
.
.
.
e

i
k
(e
j
1
) e

i
k
(e
j
k
)

=
_
(A) si l : j
l
, i
1
, . . . , i
k
,
(B) si j
1
, . . . , j
k
= i
1
, . . . , i
k
.
(14)
En el caso (A), es e

i
1
(e
j
l
) = = e

i
k
(e
j
l
) = 0, luego en el determinante de la ecuaci on (14) la columna
l-esima es nula y resulta
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) = 0.
En el caso (B) es j
1
, . . . , j
k
= i
1
, . . . , i
k
siendo 1 j
1
< < j
k
n y 1 i
1
< < i
k
n, luego
necesariamente es i
1
= j
1
, . . . , i
k
= j
k
y
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) =
_
e

i
1
e

i
k
_
(e
i
1
, . . . , e
i
k
) =

1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

= 1.
Entonces en la suma de la ecuaci on (13) el unico termino no nulo corresponde al caso i
1
= j
1
, . . . , i
k
= j
k
y en ese caso es
_
e

i
1
e

i
k
_
(e
i
1
, . . . , e
i
k
) = 1, luego la ecuaci on (13) equivale a
(j
1
, . . . , j
k
) = a
j
1
,...,j
k
, j
1
, . . . , j
k
1, . . . , n, 1 j
1
< < j
k
n
Esto concluye la prueba de que B es base de Alt
k
(V ), adem as obtuvimos como representar una k-forma
en terminos de esta base:
=

1i
1
<<i
k
n
(e
i
1
, . . . , e
i
k
) e

i
1
e

i
k
.
Recordemos el smbolo combinatorio
_
n
k
_
=
n!
(nk)!k!
que esta denido para todo n, k N, n k.
Corolario 7.6. Si dimV = n y k n, entonces dimAlt
k
(V ) =
_
n
k
_
.
29
Ejemplo 7.5. Supongamos que dimV = 3 y sea e
1
, e
2
, e
3
una base de V , entonces Alt
k
(V ) = 0, k 4
y
1 es una base de Alt
0
(V ) = k, dimAlt
0
(V ) =
_
3
0
_
= 1,
e

1
, e

2
, e

3
es una base de Alt
1
(V ) = V

, dimAlt
1
(V ) =
_
3
1
_
= 3,
e

1
e

2
, e

1
e

3
, e

2
e

3
es una base de Alt
2
(V ), dimAlt
2
(V ) =
_
3
2
_
= 3,
e

1
e

2
e

3
es una base de Alt
3
(V ), dimAlt
3
(V ) =
_
3
3
_
= 1.
En el caso de V = R
3
estas bases fueron halladas explcitamente en los ejemplos 7.3 y 7.4.
Ejemplo 7.6. Si V = k
n
y e
1
, . . . , e
n
es la base canonica de k
n
, entonces dimAlt
n
(V ) =
_
n
n
_
= 1 y
e

1
e

n
es una base de Alt
n
(V ).
(e

1
e

n
) ((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =

1
(x
11
, . . . , x
n1
) e

1
(x
1n
, . . . , x
nn
)
.
.
.
.
.
.
.
.
.
e

n
(x
11
, . . . , x
n1
) e

n
(x
1n
, . . . , x
nn
)

x
11
x
1n
.
.
.
.
.
.
.
.
.
x
n1
x
nn

.
Luego e

1
e

n
= det (el determinante) y det es una base de Alt
n
(V ).
30

Das könnte Ihnen auch gefallen