Beruflich Dokumente
Kultur Dokumente
Unidad temática 8:
Matriz asociada a un conjunto de vectores:
resolución de 3 problemas básicos
Índice
1. Seminario (2 sesiones) 2
1.1. Primer método: distribución «por columnas» . . . . . . . . . . . . . . . . 2
1.1.1. Matriz asociada a un conjunto de vectores. . . . . . . . . . . . . . 2
1.1.2. Problema A: «estudio de la dependéncia lineal» . . . . . . . . . . 5
1.1.3. Problema B: «extracción de bases» . . . . . . . . . . . . . . . . . . 7
1.1.4. Problema C: «completación de bases» . . . . . . . . . . . . . . . . 7
1.2. Segundo método: distribución «por filas» . . . . . . . . . . . . . . . . . . 8
1.2.1. Conjunto de vectores equivalentes y operaciones elementales . . 9
1.2.2. Problema A: «estudio de la dependència lineal» . . . . . . . . . . 11
1.2.3. Problema B: «extracción de bases» . . . . . . . . . . . . . . . . . . 12
1.2.4. Problema C: «Completación de bases» . . . . . . . . . . . . . . . . 14
1.3. Aplicació: rg(A) = rg(At ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1
1. Seminario (2 sesiones)
En estas dos sesiones de seminario nos proponemos dar solución de
una manera sencilla y sistemática a tres problemas que son clave en la
teoría de espacios vectoriales:
– Problema A. Estudio de la dependencia lineal de un conjunto de vec-
tores.
– Problema B. Extracción de bases: dado un conjunto de vectores, cal-
cular una base de su envoltura lineal.
– Problema C. Completación de bases: dado un conjunto linealmente
independiente de vectores, completarlo hasta lograr una base del es-
pacio vectorial.
Aunque con los conocimientos adquiridos en la unidad temática anterior
ya podríamos ser capaces de resolver los tres problemas, veremos como
resolverlos de una manera más «rutinaria» y «cómoda» con dos métodos
diferentes: distribuyendo los vectores «por columnas» y distribuyendolos
«por filas».
Además deduciremos una aplicación de este doble método que puede
resultar sorprendente: la igualdad entre el rango de una matriz y el rango
de su matriz transpuesta.
2
Ejemplo 1
Si S es el conjunto de vectores de R4 dado por
entonces
1 3 −2
−2 2 1
M(S) =
3 1 4
0 1 5
Ejemplo 2
Consideramos la base de R2 dada por B = {(1, 1), (1, −1)} y el conjunto S =
{(2, 0), (3, 1), (5, −5)} ⊆ R2 . entonces los vectores de coordenadas de los vectores de
S respeto de la base B son, respectivamente, (2, 0), (2, 1) y (0, 5). La matriz asociada
a S respeto de B es la siguiente:
" #
2 2 0
M(S; B) =
0 1 5
En el siguiente ejercicio veremos que entre los vectores columna de dos matrices
equivalentes hay una relación muy sorprendente.
Calcula la forma escalonada reducida de A y comprueba que las columnas de todas las
matrices equivalentes a A que obtienes en el proceso satisfacen también la relación (1).
¿Es casualidad el fenómeno observado en este ejercicio? La respuesta es negativa y
la explicación es la siguiente: reordenando términos la relación (1) se puede escribir
3
(3, 2, −1, −1) obtenemos que (1) equivale a decir que
3 0
2 0
A = ,
−1 0
−1 0
es decir, que el vector (3, 2, −1, −1) es una solución del sistema de ecuaciones homogeneo
que tiene por expresión matricial A~ x = ~0. Pero si B es cualquier matriz equivalente a
A, este sistema tiene las mismas soluciones que el definido por B~ x = ~0. En particular
(3, 2, −1, −1) también será solución de B~ x = ~0, cosa que equivale a decir que las columnas
de B satisfacen la relación de dependencia lineal (1).
Es sencillo ver que el razonamiento que acabamos de hacer se puede realizar en
general para cualquier matriz. Tenemos, por lo tanto, el siguiente interesante resultado:
Teorema 1
Si A y B son dos matrices equivalentes (por filas) entonces las columnas de A y B
satisfacen exactamente las mismas relaciones de dependencia lineal.
A partir de la forma escalonada reducida de una matriz se pueden ver claramente las
relaciones de dependencia lineal entre las columnas. Por ejemplo, la forma escalonada
reducida de
1 −2 0 −1 0
−1 2 1 2 0
C =
1 −2 0 −1 1
4 −8 0 −4 1
es la matriz
1 −2 0 −1 0
0 0 1 1 0
R = .
0 0 0 0 1
0 0 0 0 0
Hemos marcado con un recuadro los elementos principales.
Nos fijamos primero en las columnas principales de las matrices C y R, que son la
primera, la tercera y la quinta. El sistema de vectores de R4 que forman las columnas
principales de R es
1 0 0
0 1 0
, , .
0 0 1
0 0 0
4
la columna j-èssima de C, el conjunto
¿Qué pasa con las columnas 2 y 4 de C (es decir, las columnas que no son principales)?
¿Se pueden poner como combinación lineal de las columnas principales? Como, según
hemos visto, el proceso de escalonamiento preserva las relaciones de dependencia lineal
entre las columnas, para contestar a esta pregunta podemos fijarnos en las relaciones
de dependencia lineal entre las columnas de la matriz escalonada reducida equivalente
R. Observamos que la segunda columna de R es igual a −2 por la primera, y la cuarta
columna es igual a −1 por la primera columna más la tercera. Por lo tanto:
5
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S.
Observad que para determinar las columnas principales de una matriz nada más
hay que encontrar una matriz escalonada equivalente; no es necesario llegar hasta la
forma escalonada reducida.
Ejemplo 3
Sea el conjunto de vectores de R4 dado por
Hay que observar que no hacemos referencia a ninguna base B porque ya se entiende
que estamos trabajando con la base canónica de R4 .
Escalonando se obtiene la siguiente matriz:
1 1 0 2
0 -1 1 −1
B = ,
0 0 1 0
0 0 0 0
en la que hemos marcado con un recuadro los elementos principales de cada fila.
Observamos que, de las 4 columnas, solo 3 son columnas principales. Y esto significa
que S es linealmente dependiente (de hecho, el último vector es combinación lineal de
los 3 primeros).
Ejercicio 1.2 Consideramos el espacio vectorial C3 [x] de los polinomios de grado me-
nor o igual que 3 con coeficientes complejos. Consideramos los siguientes vectores:
~
p = 1 + ix + (1 + i)x3 , ~q = x + x2 + (2 + i)x3 , ~r = −i + x + x3 .
Estudiar la dependencia lineal del conjunto de vectores S = {~p, ~q, ~r}. Ayuda: Calcular
previamente los vectores de coordenadas respeto de la base B = {1, x, x2 , x3 }.
6
1.1.3. Problema B: «extracción de bases»
Aplicando el Teorema 2 se puede resolver también cómodamente el problema B: da-
do un conjunto (finito) de vectores S, ¿como podemos obtener una base de su envoltura
lineal hSi?
La respuesta es la siguiente: como las columnas no principales son combinación
lineal de las principales, eliminando los vectores de S que se corresponden con estas
columnas se tiene un conjunto S0 ⊆ S que continúa siendo sistema generador de hSi
(esto ya se ha visto y utilizado a la unidad temática anterior). Los vectores de S0 son los
correspondientes a las columnas principales y, por lo tanto, S0 es linealmente indepen-
diente. Así, S0 es una base de hSi. Como conclusión, podemos decir que, por resolver el
problema B, se puede aplicar el siguiente procedimiento:
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S respeto de una cierta base B.
Ejercicio 1.3 Encontrar una base de hSi, donde S es el conjunto de vectores de R4 del
ejemplo 3.
Ejercicio 1.4 Encontrar una base de hSi, donde S es el conjunto de vectores de C3 [x]
del ejercicio 1.2.
7
Si añadimos a M(T), como última columna, el vector (0, 0, 0, 1) tendremos
1 1 0 0
3 2 1 0
M(T) =
0 .
1 2 0 0
5 4 1 1
es decir, la matriz B con la misma columna añadida. Como B0 es una matriz equivalente
a M(T)0 y todas las columnas de B0 son principales se deduce que el conjunto de vecto-
res T0 = {(1, 3, 1, 5), (1, 2, 2, 4), (0, 1, 0, 1), (0, 0, 0, 1)} es linealmente independiente; como,
Además, tiene cardinal 4 (que es la dimensión de R4 ) es una base de R4 .
En general, para completar un conjunto de vectores linealmente independiente hasta
obtener una base podemos seguir el siguientes pasos:
1. Construir la matriz M(S; B) escribiendo, por columnas, las coordenadas de los
vectores de S respeto de una cierta base B.
2. Escalonar M(S; B) (como el conjunto es libre, todas las columnas deben ser
principales).
Ejercicio 1.5 Completa el conjunto {(2, 3, 2, 1), (1, −2, 1, 0)} hasta lograr una base de R4 .
Completa el conjunto {A1 , A2 , A3 } hasta obtener una base del espacio vectorial de las
matrices cuadradas reales de orden 2.
8
1.2.1. Conjunto de vectores equivalentes y operaciones elementales
Definición 2 Diremos que dos conjuntos de vectores de un espacio vectorial V, S1 y S2 ,
son equivalentes si generan el mismo subespacio vectorial de V, es decir, si hS1 i = hS2 i.
La pregunta que nos planteamos ahora es la siguiente: ¿como podemos lograr con-
juntos de vectores equivalentes a un dado?
Demostración:
Demostramos primero el apartado (a). Si la operación elemental realizada es de tipo 1, es
evidente que S y S0 son equivalentes (son el mismo conjunto!). Suponemos que la operación
realizada es de tipo 2, es decir, S0 = {~ ~2 , . . . , u
u1 , u ~ j−1 , λ~ ~ j+1 . . . , u
u j, u ~n } para un cierto j y para un
cierto escalar λ , 0.
~i ∈ hS0 i si i , j y u
– Por un lado, u ~ j = λ1 λ~
u j pertenece también a hS0 i (ya que es un múltiplo
0 0
de un vector de S ). Por tanto S ⊆ hS i y, como todo subespacio vectorial que contiene a S
también contiene a su envoltura lineal (repasar la unidad temática anterior), hSi ⊆ hS0 i .
~i ∈ hSi si i , j y λ~
– Por otra parte, u u j ∈ hSi. por el mismo razonamiento de antes hS0 i ⊆ hSi.
Concluimos, pues, que hSi = hS0 i en este caso. Suponemos ahora que la operación elemental
~ j un múltiplo
realizada es de tipo 3, es decir, que S0 se ha obtenido añadiendo a un cierto vector u
no nulo de otro vector u ~k . Sin pérdida de generalidad podemos suponer que j = 1 y k = 2
(podemos cambiar la orden si es necesario). Por lo tanto:
S0 = {~
u1 + λ~ ~2 , . . . , u
u2 , u ~n }.
Es claro que S0 ⊆ hSi y, por lo tanto, S0 ⊆ hSi. Veamos ahora que S ⊆ hS0 i (hecho que equivale a
~i ∈ hS0 i si i , 1, nada más hay que probar que u
hSi ⊆ hS0 i). Como u ~1 ∈ hS0 i. Pero:
~1 = (~
u u1 + λ~
u2 ) − λ~
u2 ∈ hS0 i.
9
Demostramos ahora el apartado (b). Suponemos primero que S es un sistema linealmente
independiente y vamos a demostrar, asumiendo esta premisa, que S0 también lo es.
Si la operación elemental realizada a S para obtener S0 es de tipo 1, la afirmación es trivial.
Si es de tipo 2, entonces S0 = {~ u1 , u~2 , . . . , u
~ j−1 , λ~ ~ j+1 . . . , u
u j, u ~n } para un cierto j y para un cierto
escalar λ , 0. Cogemos una combinación lineal arbitraría de los vectores en S0 e igualamos al
vector nulo:
~ 1 + α2 u
α1 u ~2 + · · · + α j−1 u ~ j−1 + α j λ~ u j + α j+1 u ~n = ~0.
~ j+1 + · · · αn u
Como S es linealmente independiente se tiene que αi = 0 si i , 0 y λα j = 0. Sin embargo, como
λ , 0, se tiene que α j también se anula. Por lo tanto, S0 es linealmente independiente.
Suponemos ahora que la operación elemental realizada es de tipo 3. Igual como antes, sin
pérdida de generalidad podemos suponer que
S0 = {~
u1 + λ~ ~2 , . . . , u
u2 , u ~n },
para un cierto escalar λ. Si α1 , α2 , . . . , αn son escalares tales que α1 (~ u1 +λ~u2 )+α2 u ~n = ~0.
~2 +· · ·+αn u
Operante:
~1 + (α1 λ + α2 )~
α1 u ~n = ~0.
~ 3 + · · · + αn u
u2 + α3 u
Como S es linealmente independiente se tiene que α1 = 0, α1 λ + α2 = 0, α3 = 0, . . ., αn = 0, y esto
implica que αi = 0 para todo i. Como consecuencia, S0 es linealmente independiente.
La recíproco de (b) es inmediato a partir de la implicación directa y teniendo en cuenta
que S se obtè a partir de S0 también mediante una operación elemental (la operación elemental
«inversa»).
La propiedad anterior la podemos resumir en el siguiente hecho, que resultará muy
útil a efectos prácticos:
Definición 4
Sea V un espacio vectorial, B una base de V y sea S = {~ v1 , . . . , ~
vn } un conjunto
(ordenado) de vectores de V. Consideramos la matriz M(S; B)t (es a decir, aquella
tal que su fila i-éssima es la traspuesta del vector de coordenadas de ~ vi respeto de la
base B). Diremos que S está escalonado respeto de la base B si la matriz M(S; B)t
es escalonada. Si V es Rn (o Cn ) y la base B considerada es la canónica, diremos
simplemente que S es un sistema escalonado.
Ejemplo 4 El conjunto de vectores S = {(1, 2, 3, 4), (0, 0, −3, 4), (0, 0, 0, 2)} ⊆ R4 es un
sistema escalonado, ya que la matriz
1 2 3 4
0 0 −3 4
0 0 0 2
10
es escalonada. Veamos que es linealmente independiente. Por probarlo, consideramos
una relación de dependencia lineal arbitraría
λ1 (1, 2, 3, 4) + λ2 (0, 0, −3, 4) + λ3 (0, 0, 0, 2) = (0, 0, 0, 0).
El sistema de ecuaciones (con incógnitas λ1 , λ2 y λ3 ) resultante de igualar componiendo
a componente es el siguiente:
λ1 = 0
= 0
2λ1
3λ1 − 3λ2 = 0
4λ1 + 4λ2 + 2λ3 = 0
Por sustitución progresiva se concluye que el sistema tiene, como solución única, la
trivial. Por lo tanto S es linealmente independiente.
A la vista de este ejemplo no resulta difícil quedar convencido/da de que todo
conjunto escalonado de vectores de Rn que no contenga al vector nulo es linealmente
independiente. Por otra parte, ya vimos en la unidad temática anterior que, fijada una
base B de un espacio vectorial V de dimensión n, podemos identificar los vectores ~ x de
V con los vectores de coordenadas respeto de la base B, ~ xB ∈ Rn . Teniendo en cuenta
este hecho, la siguiente propiedad es clara:
Propiedad 2
v1 , ~
Sea S = {~ v2 , . . . , ~
vm } un conjunto de vectores de un espacio vectorial V escalonado
respeto de una cierta base B. entonces, S es linealmente independiente si y solo si
ninguno de los vectores ~ vi es el vector ~0.
Volamos saber, en primer lugar, si S es libre o atado (problema 1). Para averiguarlo,
construiremos la matriz que tiene, como vectores fila, las coordenadas de los vectores
de S, es decir, la matriz M(S)t . La Propiedad 1 prueba que las operaciones elementales
preservan el carácter libre/atado. Escalonando esta matriz obtendremos un sistema
escalonado de vectores:
1 3 2 4 1 3 2 4 1 3 2 4
2 9 3 0 0 3 −1 −8 0 3 −1 −8
M(S)t = ∼ ∼ .
3 2 0 −2 0 −7 −6 −14 0 0 −11 −98
4 15 7 8 0 3 −1 −8 0 0 0 0
11
Aplicando la Propiedad 2 se tiene que S és linealmente dependent, ya que la matriz
escalonada del final tiene una fila nula.
~00
u ~0 ~
1 = u1 = u1
~00
u ~0 ~
2 = u2 = u2 − 2~
u1
~00
u 3 = 3~
u03 + 7~
u02 = −23~
u1 + 7~
u2 + 3~
u3
~00
u ~0 ~0
4 = u4 − u2 = −2~
~2 + u
u1 − u ~4
Como u~00
4
= ~0 (ya que la última fila de la matriz escalonada se nula) podemos
deducir una relació de dependencia lineal no trivial entre los vectores de S:
u1 − u
−2~ ~4 = ~0.
~2 + u
12
coincide con la envoltura lineal de los transpuestos de los vectores fila de la matriz
escalonada obtenida, es decir:
hSi = h(1, 3, 2, 4), (0, 3, −1, −8), (0, 0, −11, −98), (0, 0, 0, 0)i
Es decir, la matriz escalonada obtenida a partir de S00 se forma eliminando la fila nula
de la obtenida con S. Por lo tanto S00 es equivalente a un sistema escalonado de vectores
y, así, es linealmente independent. Además:
13
Este procedimiento se puede aplicar en general y consiste en los siguientes pasos:
1. Construir la matriz M(S; B)t escribiendo, por filas, las coordenadas de los
vectores de S respeto de una cierta base B.
3. El sistema de vectores formato por los transpuestos de los vector fila no nulos
de la matriz escalonada es una base de hSi. También es una base de hSi el
conjunto de vectores de S tales que sus filas en M(S)t se corresponden con
filas no nules de la matriz escalonada. (Atenció en este punto!: si en el procès
de escalonamiento efectuamos una permutación de filas, debemos considerar
que los vectores de S están permutados).
Ejercicio 1.7 Calcular una base del subespacio vectorial W de R3 generado por los
vectores (−1, 3, 0), (2, 1, 1), (2, 5, 2) y (3, 9, 3). ¿Cuál es la dimensión de W?
Ejercicio 1.8 Dentro del espacio vectorial de las matrices cuadradas de orden 2 (con
coeficientes reales), consideramos el siguiente subespacio vectorial:
*" # " # " # " #+
1 −1 3 1 5 −1 0 3
E= , , , .
2 0 0 1 4 1 1 0
Ejercicio 1.9 Dentro del espacio vectorial R3 [x] de los polinomios de grado ≤ 3 (con
coeficientes reales), consideramos el siguiente subconjunto:
14
Como S es equivalente a un conjunto escalonado de vectores entre los cuales no figura
el vector cero, es libre.
Cono ya se ha visto a la unidad temática anterior, cualquiera conjunto de 5 vectores
de R5 que sea linealmente independiente será una base de R5 . Como cd(S) = 3 nada
más necesitamos añadir a S dos vectores más que sean linealmente independientes con
los otros. Esto lo podemos hacer añadiendo dos vectores no nulos que, conjuntamente
con el sistema escalonado anterior, forman un conjunto escalonado de vectores de R5 .
Por ejemplo, añadiendo hábilmente dos filas no nulas a la matriz escalonada obtenemos
1 0 3 0 1 1 0 3 0 1
0
2 3 1 −1 0 2 3 1 −1
−1 3 5 0 0 ∼ 0 0 7 −3 5 ,
0 0 0 1 0 0 0
0 1 0
0 0 0 0 1 0 0 0 0 1
cono el conjunto de los vectores que tienen como coordenadas las filas de está última
matriz es linealmente independiente y equivalente a S0 = S ∪ {0, 0, 0, 1, 0), (0, 0, 0, 0, 1)}.
Por lo tanto, S0 es una base de R5 que contiene a S.
Este procedimiento para completar un conjunto de vectores S linealmente indepen-
diente hasta obtener una base es totalmente general y consiste en el siguiente:
1. Construir la matriz M(S; B)t escribiendo, por filas, las coordenadas de los
vectores de S respeto de una cierta base B.
3. Añadir filas a la matriz escalonada adecuadas para que la nueva matriz sea
también escalonada y con todas las filas no nulas.
Ejercicio 1.10 Dados los vectores (2, 1, 0) y (1, 3, 1) de R3 , encontrar una base de R3 que
los contenga.
encontrar una base del espacio vectorial de las matrices 2 × 3 (con coeficientes reales)
que las contenga.
15
1.3. Aplicació: rg(A) = rg(At )
Una aplicación sorprendente del doble método que hemos descrito para resolver el
problema B se muestra en el siguiente teorema, de demostración muy sencilla:
– Si calculamos una base de hSi con el método de «distribución por columnas» se tiene que
dim(hSi) es igual al número de columnas principales de A, es decir, al rg(A).
– Si calculamos una base de hSi con el método de «distribución por filas» se tiene que
dim(hSi) es igual al número de filas no nulas de una matriz escalonada equivaliendo a
M(S)t = At , es decir, al rg(At ).
16