Sie sind auf Seite 1von 16

Álgebra

Tema 4: Espacios vectoriales 8.

Última actualización: 18 de abril de 2011

Unidad temática 8:
Matriz asociada a un conjunto de vectores:
resolución de 3 problemas básicos
Índice
1. Seminario (2 sesiones) 2
1.1. Primer método: distribución «por columnas» . . . . . . . . . . . . . . . . 2
1.1.1. Matriz asociada a un conjunto de vectores. . . . . . . . . . . . . . 2
1.1.2. Problema A: «estudio de la dependéncia lineal» . . . . . . . . . . 5
1.1.3. Problema B: «extracción de bases» . . . . . . . . . . . . . . . . . . 7
1.1.4. Problema C: «completación de bases» . . . . . . . . . . . . . . . . 7
1.2. Segundo método: distribución «por filas» . . . . . . . . . . . . . . . . . . 8
1.2.1. Conjunto de vectores equivalentes y operaciones elementales . . 9
1.2.2. Problema A: «estudio de la dependència lineal» . . . . . . . . . . 11
1.2.3. Problema B: «extracción de bases» . . . . . . . . . . . . . . . . . . 12
1.2.4. Problema C: «Completación de bases» . . . . . . . . . . . . . . . . 14
1.3. Aplicació: rg(A) = rg(At ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1
1. Seminario (2 sesiones)
En estas dos sesiones de seminario nos proponemos dar solución de
una manera sencilla y sistemática a tres problemas que son clave en la
teoría de espacios vectoriales:
– Problema A. Estudio de la dependencia lineal de un conjunto de vec-
tores.
– Problema B. Extracción de bases: dado un conjunto de vectores, cal-
cular una base de su envoltura lineal.
– Problema C. Completación de bases: dado un conjunto linealmente
independiente de vectores, completarlo hasta lograr una base del es-
pacio vectorial.
Aunque con los conocimientos adquiridos en la unidad temática anterior
ya podríamos ser capaces de resolver los tres problemas, veremos como
resolverlos de una manera más «rutinaria» y «cómoda» con dos métodos
diferentes: distribuyendo los vectores «por columnas» y distribuyendolos
«por filas».
Además deduciremos una aplicación de este doble método que puede
resultar sorprendente: la igualdad entre el rango de una matriz y el rango
de su matriz transpuesta.

1.1. Primer método: distribución «por columnas»


1.1.1. Matriz asociada a un conjunto de vectores.
Definición 1 Sea V un espacio vectorial, B una base de V y sea S = {~ v1 , . . . , ~
vn } un
conjunto (ordenado) de vectores de V. Llamaremos a matriz asociada a S respeto de
la base B a la matriz cuadrada M(S; B) de orden n tal que que suya columna j-éssima
es el vector de coordenadas de ~ v j respeto de la base B. Si V es Rn (o Cn ) y la base B
considerada es la canónica, entonces denotaremos esta matriz simplemente por M(S)
(sin hacer referencia a la base).
Dicho de otro modo, la matriz asociada a un conjunto de vectores S es aquella
formada por las coordenadas de los vectores de S «distribuidos por columnas».

2
Ejemplo 1
Si S es el conjunto de vectores de R4 dado por

S = {(1, −2, 3, 0), (3, 2, 1, 1), (−2, 1, 4, 5)}

entonces  
 1 3 −2
−2 2 1 
 
M(S) =  
 3 1 4 
0 1 5
 

Ejemplo 2
Consideramos la base de R2 dada por B = {(1, 1), (1, −1)} y el conjunto S =
{(2, 0), (3, 1), (5, −5)} ⊆ R2 . entonces los vectores de coordenadas de los vectores de
S respeto de la base B son, respectivamente, (2, 0), (2, 1) y (0, 5). La matriz asociada
a S respeto de B es la siguiente:
" #
2 2 0
M(S; B) =
0 1 5

En el siguiente ejercicio veremos que entre los vectores columna de dos matrices
equivalentes hay una relación muy sorprendente.

Ejercicio 1.1 Sea la matriz  


1 1 0 5 
3 2 1 12
 
A =  
1 2 0 7 
5 4 1 22
 

Observa que, si Col(y) denota la i-éssima columna de A, se satisface la siguiente relación


de dependencia lineal entre las columnas:

Col(4) = 3 Col(1) + 2 Col(2) − Col(3). (1)

Calcula la forma escalonada reducida de A y comprueba que las columnas de todas las
matrices equivalentes a A que obtienes en el proceso satisfacen también la relación (1).
¿Es casualidad el fenómeno observado en este ejercicio? La respuesta es negativa y
la explicación es la siguiente: reordenando términos la relación (1) se puede escribir

3 Col(1) + 2 Col(2) − Col(3) − Col(4) = ~0.

Como el miembro de la izquierda es el resultado de multiplicar la matriz A por el vector

3
(3, 2, −1, −1) obtenemos que (1) equivale a decir que
   
 3  0
 2  0
   
A   =   ,
−1 0
−1 0
   

es decir, que el vector (3, 2, −1, −1) es una solución del sistema de ecuaciones homogeneo
que tiene por expresión matricial A~ x = ~0. Pero si B es cualquier matriz equivalente a
A, este sistema tiene las mismas soluciones que el definido por B~ x = ~0. En particular
(3, 2, −1, −1) también será solución de B~ x = ~0, cosa que equivale a decir que las columnas
de B satisfacen la relación de dependencia lineal (1).
Es sencillo ver que el razonamiento que acabamos de hacer se puede realizar en
general para cualquier matriz. Tenemos, por lo tanto, el siguiente interesante resultado:
Teorema 1
Si A y B son dos matrices equivalentes (por filas) entonces las columnas de A y B
satisfacen exactamente las mismas relaciones de dependencia lineal.

A partir de la forma escalonada reducida de una matriz se pueden ver claramente las
relaciones de dependencia lineal entre las columnas. Por ejemplo, la forma escalonada
reducida de  
 1 −2 0 −1 0
−1 2 1 2 0
 
C =   
 1 −2 0 −1 1
4 −8 0 −4 1
 

es la matriz  
 1 −2 0 −1 0 
 
 0 0 1 1 0
R =   .

 0 0 0 0 1


 
0 0 0 0 0
Hemos marcado con un recuadro los elementos principales.
Nos fijamos primero en las columnas principales de las matrices C y R, que son la
primera, la tercera y la quinta. El sistema de vectores de R4 que forman las columnas
principales de R es
     
1 0 0

 

0 1 0
 
, , .
 


 0 0 1
     
      
0 0 0 

Como es un subconjunto de la base canónica de R4 , es linealmente independiente. Como,


según el teorema anterior, las relaciones de dependencia lineal entre las columnas de R
son las mismas que las existentes entre las columnas de C, se tiene que, si Col( j) denota

4
la columna j-èssima de C, el conjunto

{Col(1), Col(3), Col(5)}

es linealmente independiente. Este mismo razonamiento se puede realizar con cual-


quiera otra matriz. Por lo tanto podemos deducir que:
El conjunto formato por los vectores correspondientes a las columnas principales
de cualquier matriz es linealmente independiente.

¿Qué pasa con las columnas 2 y 4 de C (es decir, las columnas que no son principales)?
¿Se pueden poner como combinación lineal de las columnas principales? Como, según
hemos visto, el proceso de escalonamiento preserva las relaciones de dependencia lineal
entre las columnas, para contestar a esta pregunta podemos fijarnos en las relaciones
de dependencia lineal entre las columnas de la matriz escalonada reducida equivalente
R. Observamos que la segunda columna de R es igual a −2 por la primera, y la cuarta
columna es igual a −1 por la primera columna más la tercera. Por lo tanto:

Col(2) = −2Col(1) y Col(4) = −Col(1) + Col(3).

Un poco de reflexión nos llevará a concluir que, en general:


Las columnas no principales de cualquier matriz se pueden expresar como combi-
nación lineal de las columnas principales. Además, los coeficientes de estas combi-
naciones lineales vienen dados por las entradas de las columnas no principales en
la forma escalonada reducida.

Resumiremos todo lo que acabamos de deducir enunciando el siguiente teorema:


Teorema 2
Sea S un conjunto (finito) de vectores de un espacio vectorial V y sea B una base de
V. Entonces:

1. el subconjunto S0 formato por los vectores de S correspondiente a las columnas


principales de M(S; B) es linealmente independente,

2. los vectores de S correspondientes a las columnas no principales de M(S; B)


se pueden expresar como combinación lineal de los vectores de S0 .

1.1.2. Problema A: «estudio de la dependéncia lineal»


Teniendo en cuenta el Teorema 2 resulta claro que, fijada una base B de V, para
estudiar la dependencia lineal de un conjunto (finito) de vectores S ⊆ V podemos
utilizar el siguiente método práctico:

5
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S.

2. Escalonar M(S; B) y localizar las columnas principales.

3. Si todas las columnas son principales entonces S es linealmente independien-


te. En caso contrario, S es linealmente dependiente.

Observad que para determinar las columnas principales de una matriz nada más
hay que encontrar una matriz escalonada equivalente; no es necesario llegar hasta la
forma escalonada reducida.
Ejemplo 3
Sea el conjunto de vectores de R4 dado por

S = {(1, 3, 1, 5), (1, 2, 2, 4), (0, 1, 0, 1), (2, 5, 3, 9)}.

Pretendemos determinar si S es linealmente independiente o linealmente depen-


diente (problema A).

La matriz asociada a S es la siguiente:


 
1 1 0 2
3 2 1 5
 
M(S) =  .
1 2 0 3
5 4 1 9
 

Hay que observar que no hacemos referencia a ninguna base B porque ya se entiende
que estamos trabajando con la base canónica de R4 .
Escalonando se obtiene la siguiente matriz:
 
 1 1 0 2 
 
0 -1 1 −1
B =   ,
 0 0 1 0 
 
0 0 0 0
en la que hemos marcado con un recuadro los elementos principales de cada fila.
Observamos que, de las 4 columnas, solo 3 son columnas principales. Y esto significa
que S es linealmente dependiente (de hecho, el último vector es combinación lineal de
los 3 primeros).

Ejercicio 1.2 Consideramos el espacio vectorial C3 [x] de los polinomios de grado me-
nor o igual que 3 con coeficientes complejos. Consideramos los siguientes vectores:
~
p = 1 + ix + (1 + i)x3 , ~q = x + x2 + (2 + i)x3 , ~r = −i + x + x3 .
Estudiar la dependencia lineal del conjunto de vectores S = {~p, ~q, ~r}. Ayuda: Calcular
previamente los vectores de coordenadas respeto de la base B = {1, x, x2 , x3 }.

6
1.1.3. Problema B: «extracción de bases»
Aplicando el Teorema 2 se puede resolver también cómodamente el problema B: da-
do un conjunto (finito) de vectores S, ¿como podemos obtener una base de su envoltura
lineal hSi?
La respuesta es la siguiente: como las columnas no principales son combinación
lineal de las principales, eliminando los vectores de S que se corresponden con estas
columnas se tiene un conjunto S0 ⊆ S que continúa siendo sistema generador de hSi
(esto ya se ha visto y utilizado a la unidad temática anterior). Los vectores de S0 son los
correspondientes a las columnas principales y, por lo tanto, S0 es linealmente indepen-
diente. Así, S0 es una base de hSi. Como conclusión, podemos decir que, por resolver el
problema B, se puede aplicar el siguiente procedimiento:
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S respeto de una cierta base B.

2. Escalonar M(S; B) y determinar cuáles son las columnas principales.

3. El subconjunto S0 ⊆ S formado por los vectores correspondientes a las colum-


nas principales de M(S; B) es una base de hSi.

Ejercicio 1.3 Encontrar una base de hSi, donde S es el conjunto de vectores de R4 del
ejemplo 3.

Ejercicio 1.4 Encontrar una base de hSi, donde S es el conjunto de vectores de C3 [x]
del ejercicio 1.2.

1.1.4. Problema C: «completación de bases»


El problema es el siguiente: Si S = {~ ~2 , . . . , u
u1 , u ~k } es un conjunto linealmente in-
dependiente de vectores de un espacio vectorial V de dimensión n, con k < n, ¿como
se puede completar S con n − k vectores u ~k+1 , u~k+2 , . . . , u ~n de manera que el conjunto
resultante {~ ~2 , . . . , u
u1 , u ~k , u
~k+1 , . . . , u
~n } sea una base de V?
Consideramos, por ejemplo, el conjunto de vectores T = {(1, 3, 1, 5), (1, 2, 2, 4), (0, 1, 0, 1)} ⊆
R4 formado por los 3 primeros vectores del ejemplo 3, que son linealmente independien-
tes. Evidentemente no es una base de R4 ya que, aunque son linealmente independientes,
su cardinal no es igual a la dimensión de R4 . En realidad, para formar una base de R4
falta añadir un solo vector que sea linealmente independiente con los de T.
Si calculamos M(T) y escalonamos la matriz se obtiene la siguiente matriz equivalente
por filas:
 
 1 1 0 
 
 0 -1 1 
B =    .
 0 0 1 
 
0 0 0

7
Si añadimos a M(T), como última columna, el vector (0, 0, 0, 1) tendremos
 
1 1 0 0
3 2 1 0
 
M(T) = 
0   .
1 2 0 0
5 4 1 1
 

Si escalonamos la matriz resultante M(T)0 obtendremos


 
 1 1 0 0 
 
 0 -1 1 0 
B = 
0   ,
 0 0 1 0 
 
0 0 0 1

es decir, la matriz B con la misma columna añadida. Como B0 es una matriz equivalente
a M(T)0 y todas las columnas de B0 son principales se deduce que el conjunto de vecto-
res T0 = {(1, 3, 1, 5), (1, 2, 2, 4), (0, 1, 0, 1), (0, 0, 0, 1)} es linealmente independiente; como,
Además, tiene cardinal 4 (que es la dimensión de R4 ) es una base de R4 .
En general, para completar un conjunto de vectores linealmente independiente hasta
obtener una base podemos seguir el siguientes pasos:
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S respeto de una cierta base B.

2. Escalonar M(S; B) (como el conjunto es libre, todas las columnas deben ser
principales).

3. Añadimos a S vectores de la base canónica con un 1 ocupando la posición


correspondiente a las columnas no principales.

Ejercicio 1.5 Completa el conjunto {(2, 3, 2, 1), (1, −2, 1, 0)} hasta lograr una base de R4 .

Ejercicio 1.6 Sean las matrices


" # " # " #
1 1 1 2 1 0
A1 = , A2 = y A3 = .
1 1 −1 1 1 0

Completa el conjunto {A1 , A2 , A3 } hasta obtener una base del espacio vectorial de las
matrices cuadradas reales de orden 2.

1.2. Segundo método: distribución «por filas»


El objetivo de esta sección es ver que los problemas A, B y C también pueden
resolverse de manera fácil escalonando la matriz resultante de escribir los vectores por
files (en lugar de por columnas), es decir, escalonando la matriz M(S; B)t .

8
1.2.1. Conjunto de vectores equivalentes y operaciones elementales
Definición 2 Diremos que dos conjuntos de vectores de un espacio vectorial V, S1 y S2 ,
son equivalentes si generan el mismo subespacio vectorial de V, es decir, si hS1 i = hS2 i.
La pregunta que nos planteamos ahora es la siguiente: ¿como podemos lograr con-
juntos de vectores equivalentes a un dado?

Definición 3 Sea un conjunto (ordenado) de vectores S = {~ ~2 , . . . , u


u1 , u ~n }. Diremos que
hacemos una operación elemental a S si efectuamos una de las siguientes acciones:

– (Operación elemental de tipo 1): Intercambiamos dos vectores de S.

– (Operación elemental de tipo 2): Muliplicamos uno de los vectores de S por un


escalar no nulo.

– (Operación elemental de tipo 3): Añadimos a un de los vectores de S un múltiple


de otro vector de S.

Propiedad 1 Sea S0 el conjunto que resulta de realizar una operación elemental a un


conjunto de vectores S = {~ ~2 , . . . , u
u1 , u ~n }.

(a) S y S0 son conjuntos equivalentes.

(b) S es linealmente independiente si y solo si S0 lo es.

Demostración:
Demostramos primero el apartado (a). Si la operación elemental realizada es de tipo 1, es
evidente que S y S0 son equivalentes (son el mismo conjunto!). Suponemos que la operación
realizada es de tipo 2, es decir, S0 = {~ ~2 , . . . , u
u1 , u ~ j−1 , λ~ ~ j+1 . . . , u
u j, u ~n } para un cierto j y para un
cierto escalar λ , 0.
~i ∈ hS0 i si i , j y u
– Por un lado, u ~ j = λ1 λ~
u j pertenece también a hS0 i (ya que es un múltiplo
0 0
de un vector de S ). Por tanto S ⊆ hS i y, como todo subespacio vectorial que contiene a S
también contiene a su envoltura lineal (repasar la unidad temática anterior), hSi ⊆ hS0 i .
~i ∈ hSi si i , j y λ~
– Por otra parte, u u j ∈ hSi. por el mismo razonamiento de antes hS0 i ⊆ hSi.
Concluimos, pues, que hSi = hS0 i en este caso. Suponemos ahora que la operación elemental
~ j un múltiplo
realizada es de tipo 3, es decir, que S0 se ha obtenido añadiendo a un cierto vector u
no nulo de otro vector u ~k . Sin pérdida de generalidad podemos suponer que j = 1 y k = 2
(podemos cambiar la orden si es necesario). Por lo tanto:

S0 = {~
u1 + λ~ ~2 , . . . , u
u2 , u ~n }.

Es claro que S0 ⊆ hSi y, por lo tanto, S0 ⊆ hSi. Veamos ahora que S ⊆ hS0 i (hecho que equivale a
~i ∈ hS0 i si i , 1, nada más hay que probar que u
hSi ⊆ hS0 i). Como u ~1 ∈ hS0 i. Pero:

~1 = (~
u u1 + λ~
u2 ) − λ~
u2 ∈ hS0 i.

Por lo tanto se tiene también la inclusión hSi ⊆ hS0 i, siendo S y S0 equivalentes.

9
Demostramos ahora el apartado (b). Suponemos primero que S es un sistema linealmente
independiente y vamos a demostrar, asumiendo esta premisa, que S0 también lo es.
Si la operación elemental realizada a S para obtener S0 es de tipo 1, la afirmación es trivial.
Si es de tipo 2, entonces S0 = {~ u1 , u~2 , . . . , u
~ j−1 , λ~ ~ j+1 . . . , u
u j, u ~n } para un cierto j y para un cierto
escalar λ , 0. Cogemos una combinación lineal arbitraría de los vectores en S0 e igualamos al
vector nulo:
~ 1 + α2 u
α1 u ~2 + · · · + α j−1 u ~ j−1 + α j λ~ u j + α j+1 u ~n = ~0.
~ j+1 + · · · αn u
Como S es linealmente independiente se tiene que αi = 0 si i , 0 y λα j = 0. Sin embargo, como
λ , 0, se tiene que α j también se anula. Por lo tanto, S0 es linealmente independiente.
Suponemos ahora que la operación elemental realizada es de tipo 3. Igual como antes, sin
pérdida de generalidad podemos suponer que

S0 = {~
u1 + λ~ ~2 , . . . , u
u2 , u ~n },

para un cierto escalar λ. Si α1 , α2 , . . . , αn son escalares tales que α1 (~ u1 +λ~u2 )+α2 u ~n = ~0.
~2 +· · ·+αn u
Operante:
~1 + (α1 λ + α2 )~
α1 u ~n = ~0.
~ 3 + · · · + αn u
u2 + α3 u
Como S es linealmente independiente se tiene que α1 = 0, α1 λ + α2 = 0, α3 = 0, . . ., αn = 0, y esto
implica que αi = 0 para todo i. Como consecuencia, S0 es linealmente independiente.
La recíproco de (b) es inmediato a partir de la implicación directa y teniendo en cuenta
que S se obtè a partir de S0 también mediante una operación elemental (la operación elemental
«inversa»).
La propiedad anterior la podemos resumir en el siguiente hecho, que resultará muy
útil a efectos prácticos:

Las operaciones elementales preservan la envoltura lineal y la dependencia (o


independencia) lineal.

Definición 4
Sea V un espacio vectorial, B una base de V y sea S = {~ v1 , . . . , ~
vn } un conjunto
(ordenado) de vectores de V. Consideramos la matriz M(S; B)t (es a decir, aquella
tal que su fila i-éssima es la traspuesta del vector de coordenadas de ~ vi respeto de la
base B). Diremos que S está escalonado respeto de la base B si la matriz M(S; B)t
es escalonada. Si V es Rn (o Cn ) y la base B considerada es la canónica, diremos
simplemente que S es un sistema escalonado.

Ejemplo 4 El conjunto de vectores S = {(1, 2, 3, 4), (0, 0, −3, 4), (0, 0, 0, 2)} ⊆ R4 es un
sistema escalonado, ya que la matriz
 
1 2 3 4
0 0 −3 4
 

0 0 0 2

10
es escalonada. Veamos que es linealmente independiente. Por probarlo, consideramos
una relación de dependencia lineal arbitraría
λ1 (1, 2, 3, 4) + λ2 (0, 0, −3, 4) + λ3 (0, 0, 0, 2) = (0, 0, 0, 0).
El sistema de ecuaciones (con incógnitas λ1 , λ2 y λ3 ) resultante de igualar componiendo
a componente es el siguiente:
λ1 = 0 


= 0 

2λ1 

3λ1 − 3λ2 = 0 



4λ1 + 4λ2 + 2λ3 = 0 

Por sustitución progresiva se concluye que el sistema tiene, como solución única, la
trivial. Por lo tanto S es linealmente independiente.
A la vista de este ejemplo no resulta difícil quedar convencido/da de que todo
conjunto escalonado de vectores de Rn que no contenga al vector nulo es linealmente
independiente. Por otra parte, ya vimos en la unidad temática anterior que, fijada una
base B de un espacio vectorial V de dimensión n, podemos identificar los vectores ~ x de
V con los vectores de coordenadas respeto de la base B, ~ xB ∈ Rn . Teniendo en cuenta
este hecho, la siguiente propiedad es clara:
Propiedad 2
v1 , ~
Sea S = {~ v2 , . . . , ~
vm } un conjunto de vectores de un espacio vectorial V escalonado
respeto de una cierta base B. entonces, S es linealmente independiente si y solo si
ninguno de los vectores ~ vi es el vector ~0.

1.2.2. Problema A: «estudio de la dependència lineal»


La Propiedad 2 se puede aplicar para resolver fácilmente el problema A. Veamos un
ejemplo.

Ejemplo 5 Sea el conjunto de vectores de R4 dado por


S = {~ ~2 = (2, 9, 3, 0), u
u1 = (1, 3, 2, 4), u ~3 = (3, 2, 0, −2), u
~4 = (4, 15, 7, 8)}.

Volamos saber, en primer lugar, si S es libre o atado (problema 1). Para averiguarlo,
construiremos la matriz que tiene, como vectores fila, las coordenadas de los vectores
de S, es decir, la matriz M(S)t . La Propiedad 1 prueba que las operaciones elementales
preservan el carácter libre/atado. Escalonando esta matriz obtendremos un sistema
escalonado de vectores:
     
1 3 2 4  1 3 2 4  1 3 2 4 
2 9 3 0  0 3 −1 −8  0 3 −1 −8 
     
M(S)t =   ∼   ∼   .
3 2 0 −2 0 −7 −6 −14 0 0 −11 −98
4 15 7 8 0 3 −1 −8 0 0 0 0
     

11
Aplicando la Propiedad 2 se tiene que S és linealmente dependent, ya que la matriz
escalonada del final tiene una fila nula.

El procedimiento que hemos realizado es válido para cualquiera conjunto de vectores


(si los vectores no son de Rn o Cn entonces deberíamos fijar una base del espacio vectorial
y considerar los vectores de coordenadas en esta base). Por lo tanto, por determinar la
dependencia lineal de un conjunto de vectores S podemos aplicar el siguiente proceso:
1. Construir la matriz M(S; B)t escribiendo, por filas, las coordenadas de los
vectores de S respeto de una cierta base B.

2. Escalonar M(S; B)t .

3. Si la matriz escalonada obtenida no tiene cabeza fila nula entonces S es lineal-


mente independiente; en caso contrario es linealmente dependiente.

Continuando con el mismo ejemplo, si reproducimos las operaciones elementales


por filas que hemos realizado podemos obtener una relación de dependencia lineal no
trivial entre los vectores de S. En efecto:
En el primer paso, a la segunda fila le hemos restado 2 veces la primera, a la tercera
le hemos restado 3 veces la primera y a la cuarta le hemos restado 4 veces la primera.
Esto significa que las filas de la segunda matriz son las coordenadas de los vectores
~01 = u
u ~1 , u
~02 = u
~2 − 2~ ~03 = u
u1 , u ~3 − 3~ ~04 = u
u1 y u ~4 − 4~
u1 .
Análogamente, las filas de la última matriz corresponden a los vectores siguientes:

~00
u ~0 ~
1 = u1 = u1

~00
u ~0 ~
2 = u2 = u2 − 2~
u1
~00
u 3 = 3~
u03 + 7~
u02 = −23~
u1 + 7~
u2 + 3~
u3
~00
u ~0 ~0
4 = u4 − u2 = −2~
~2 + u
u1 − u ~4

Como u~00
4
= ~0 (ya que la última fila de la matriz escalonada se nula) podemos
deducir una relació de dependencia lineal no trivial entre los vectores de S:

u1 − u
−2~ ~4 = ~0.
~2 + u

1.2.3. Problema B: «extracción de bases»


Continuamos con el mismo ejemplo. Por la Propiedad 1, las operaciones elementales
producen conjuntos de vectores equivalentes. Por lo tanto, la envoltura lineal de S

12
coincide con la envoltura lineal de los transpuestos de los vectores fila de la matriz
escalonada obtenida, es decir:

hSi = h(1, 3, 2, 4), (0, 3, −1, −8), (0, 0, −11, −98), (0, 0, 0, 0)i

= h(1, 3, 2, 4), (0, 3, −1, −8), (0, 0, −11, −98)i.


Así, el conjunto S0 = {(1, 3, 2, 4), (0, 3, −1, −8), (0, 0, −11, −98)} ⊆ R4 es
– linealmente independiente (ya que es un conjunto escalonado que no contiene a
~0),

– sistema generador del subespacio vectorial hSi.


Es decir,
S0 es una base de hSi.

Observamos que S0 es una base de S pero no está formada por vectores de S. Si


lo que queremos es obtener un subconjunto de S que sea base (como se obtenia con
el primer método) podemos razonar de la siguiente manera: como la fila de ceros que
aparece en la matriz escalonada se debe a la presencia del vector u ~4 , si la eliminamos
obtendremos un subconjunt S = {~00 ~2 = (2, 9, 3, 0), u
u1 = (1, 3, 2, 4), u ~3 = (3, 2, 0, −2)} de S
tal que
     
1 3 2 4  1 3 2 4  1 3 2 4 
M(S00 )t = 2 9 3 0  ∼ 0 3 −1 −8  ∼ 0 3 −1 −8  .
     
3 2 0 −2 0 −7 −6 −14 0 0 −11 −98
     

Es decir, la matriz escalonada obtenida a partir de S00 se forma eliminando la fila nula
de la obtenida con S. Por lo tanto S00 es equivalente a un sistema escalonado de vectores
y, así, es linealmente independent. Además:

hS00 i = hS0 \ {~0}i = hS0 i = hSi.

En efecto: la primera igualdad es evidente teniendo en cuenta la matriz escalonada


que equivalente a M(S00 )t que hemos obtenido; la segunda es debida a que la envoltura
lineal no cambia si añadimos el vector ~0 como un nuevo generador; la última igualdad
es también evidente ya que los vectores de S0 son los que se han obtenido escalonando
la matriz M(S)t . Concluimos, así, que S00 es también un sistema generador de hSi y, por
lo tanto:
S00 es una base de hSi.

Hemos calculado, de esta manera, dos soluciones al problema B. En la primera de las


soluciones hemos obtenido una base de hSi que no es un subconjunto de S pero que es
«sencilla» (en el sentido en que forma un sistema escalonado de vectores). Como en la
segunda solución hemos obtenido un subconjunto de S que es base de hSi.

13
Este procedimiento se puede aplicar en general y consiste en los siguientes pasos:
1. Construir la matriz M(S; B)t escribiendo, por filas, las coordenadas de los
vectores de S respeto de una cierta base B.

2. Escalonar M(S; B)t .

3. El sistema de vectores formato por los transpuestos de los vector fila no nulos
de la matriz escalonada es una base de hSi. También es una base de hSi el
conjunto de vectores de S tales que sus filas en M(S)t se corresponden con
filas no nules de la matriz escalonada. (Atenció en este punto!: si en el procès
de escalonamiento efectuamos una permutación de filas, debemos considerar
que los vectores de S están permutados).

Ejercicio 1.7 Calcular una base del subespacio vectorial W de R3 generado por los
vectores (−1, 3, 0), (2, 1, 1), (2, 5, 2) y (3, 9, 3). ¿Cuál es la dimensión de W?

Ejercicio 1.8 Dentro del espacio vectorial de las matrices cuadradas de orden 2 (con
coeficientes reales), consideramos el siguiente subespacio vectorial:
*" # " # " # " #+
1 −1 3 1 5 −1 0 3
E= , , , .
2 0 0 1 4 1 1 0

Calculáis una base de E y dim(E).

Ejercicio 1.9 Dentro del espacio vectorial R3 [x] de los polinomios de grado ≤ 3 (con
coeficientes reales), consideramos el siguiente subconjunto:

H = {a + bx + cx2 + dx3 | a − 2b + c = 0}.

Demostrar que H se un subespacio vectorial de R3 [x], calcular una base de H y encontrar


su dimensión. ayuda: Expresar H como envoltura lineal.

1.2.4. Problema C: «Completación de bases»


Consideramos el siguiente conjunto de vectores de R5 :

S = {(1, 0, 3, 0, 1), (0, 2, 3, 1, −1), (−1, 3, 5, 0, 0)}.

En primer lugar comprobamos que S es libre utilizando operaciones elementales con


vectores, como en la sección anterior.
       
 1 0 3 0 1  1 0 3 0 1  1 0 3 0 1  1 0 3 0 1 
M(S)t =  0 2 3 1 −1 ∼ 0 2 3 1 −1 ∼ 0 2 3 1 −1  ∼ 0 2 3 1 −1 .
       
−1 3 5 0 0 0 3 8 0 1 0 0 7/2 −3/2 5/2 0 0 7 −3 5
       

14
Como S es equivalente a un conjunto escalonado de vectores entre los cuales no figura
el vector cero, es libre.
Cono ya se ha visto a la unidad temática anterior, cualquiera conjunto de 5 vectores
de R5 que sea linealmente independiente será una base de R5 . Como cd(S) = 3 nada
más necesitamos añadir a S dos vectores más que sean linealmente independientes con
los otros. Esto lo podemos hacer añadiendo dos vectores no nulos que, conjuntamente
con el sistema escalonado anterior, forman un conjunto escalonado de vectores de R5 .
Por ejemplo, añadiendo hábilmente dos filas no nulas a la matriz escalonada obtenemos

 1 0 3 0 1  1 0 3 0 1 
   
 0
 2 3 1 −1 0 2 3 1 −1
−1 3 5 0 0  ∼ 0 0 7 −3 5  ,
   

 0 0 0 1 0  0 0
 
0 1 0 

   
0 0 0 0 1 0 0 0 0 1

cono el conjunto de los vectores que tienen como coordenadas las filas de está última
matriz es linealmente independiente y equivalente a S0 = S ∪ {0, 0, 0, 1, 0), (0, 0, 0, 0, 1)}.
Por lo tanto, S0 es una base de R5 que contiene a S.
Este procedimiento para completar un conjunto de vectores S linealmente indepen-
diente hasta obtener una base es totalmente general y consiste en el siguiente:
1. Construir la matriz M(S; B)t escribiendo, por filas, las coordenadas de los
vectores de S respeto de una cierta base B.

2. Escalonar M(S; B)t .

3. Añadir filas a la matriz escalonada adecuadas para que la nueva matriz sea
también escalonada y con todas las filas no nulas.

4. Añadiendo al conjunto de vectores inicial los transpuestos de las nuevas filas


de la matriz final se obtiene una base del espacio vectorial.

Ejercicio 1.10 Dados los vectores (2, 1, 0) y (1, 3, 1) de R3 , encontrar una base de R3 que
los contenga.

Ejercicio 1.11 Dadas las matrices


" # " #
1 2 −1 1 0 4
y ,
2 1 0 −3 6 1

encontrar una base del espacio vectorial de las matrices 2 × 3 (con coeficientes reales)
que las contenga.

15
1.3. Aplicació: rg(A) = rg(At )
Una aplicación sorprendente del doble método que hemos descrito para resolver el
problema B se muestra en el siguiente teorema, de demostración muy sencilla:

Teorema 3 Si A es una matriz cualquiera entonces rg(A) = rg(At ).


Demostración:
Si S denota el conjunto de los vectores columna de A entonces A = M(S).

– Si calculamos una base de hSi con el método de «distribución por columnas» se tiene que
dim(hSi) es igual al número de columnas principales de A, es decir, al rg(A).
– Si calculamos una base de hSi con el método de «distribución por filas» se tiene que
dim(hSi) es igual al número de filas no nulas de una matriz escalonada equivaliendo a
M(S)t = At , es decir, al rg(At ).

De este cálculo doble de dim(hSi) se deduce que rg(A) = rg(At ).

16

Das könnte Ihnen auch gefallen