Sie sind auf Seite 1von 46

Tema 4.

- El espacio vectorial R
n
.
1. Subespacios vectoriales de R
n
.
2. Bases de un subespacio.
3. Rango de una matriz.
4. Bases de R
n
. Cambios de base.
5. Ejercicios.
En este tema estudiamos la estructura vectorial del espacio R
n
, de las nuplas ordenadas de n umeros reales, es
decir, la estructura relacionada con las operaciones suma (de vectores) y multiplicacion de un n umero (real) por un
vector. El espacio R
n
es uno de los modelos para el estudio de los denominados espacios vectoriales (generales). Sin
entrar en mas detalles y deniciones, un espacio vectorial es un conjunto de elementos sobre el que hay denida una
operaci on suma (de dichos elementos) y una operaci on producto de un n umero por uno de dichos elementos. Por
ejemplo, son espacios vectoriales:
el conjunto de las matrices de unas dimensiones dadas, con la operaci on suma de matrices y producto de un
escalar (real, complejo) por una matriz,
el conjunto de todos los polinomios en una variable, con las operaciones suma de polinomios y producto de un
escalar por un polinomio,
el conjunto de todos los polinomios en una variable y con grado menor o igual que un cierto valor prejado. Por
ejemplo, el conjunto de todos los polinomios de grado menor o igual que 3.
Para nalizar, daremos la denicion formal de base y consideraremos los resultados fundamentales asociados a
dicho concepto.
1. Subespacios vectoriales de R
n
.
Los subespacios vectoriales de R
n
seran los subconjuntos de R
n
que se pueden caracterizar mediante ecuaciones
lineales homogeneas (ecuaciones implcitas en las n variables dadas por las coordenadas de un vector generico). Como
ya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertos
vectores tambien puede caracterizarse mediante ecuaciones lineales homogeneas. A la hora de manipular subespacios
vectoriales recurriremos, de forma habitual, a su expresion mediante ecuaciones implcitas o a su expresion mediante
ecuaciones parametricas. Una de las cuestiones que trataremos es el n umero mnimo de ecuaciones implcitas mediante
las que se puede caracterizar un subespacio y el n umero mnimo de vectores que permiten generar dicho subespacio. En
el espacio tridimensional R
3
, los subespacios vectoriales son, ademas del subespacio nulo {0} y del total R
3
, las rectas
y los planos que pasan por el origen de coordenadas. Recordemos que cualquier recta o plano se puede caracterizar
mediante ecuaciones implcitas y mediante ecuaciones parametricas. En R
3
, para caracterizar una recta que pasa por
el origen de coordenadas necesitamos dos ecuaciones (no redundantes) o un vector, y para caracterizar un plano que
pasa por el origen de coordenadas necesitamos una ecuaci on o dos vectores linealmente independientes (una base de
dicho plano).
1.1. Subespacios vectoriales.
Denicion. Se llama subespacio vectorial de R
n
a todo subconjunto no vaco S R
n
que verica:
(1) Si un vector est a en S, tambien lo est a cualquiera de sus m ultiplos, es decir,
v S =v S, R,
(2) Si dos vectores est an en S, tambien lo est a la suma de ambos, es decir,
v
1
, v
2
S =v
1
+v
2
S.
79
La propiedad (1) nos dice que si tenemos un vector no nulo de un subespacio vectorial, la recta determinada por
dicho vector est a contenida en el subespacio. La propiedad (2) nos dice que si tenemos dos vectores (no colineales) de
un subespacio vectorial, el plano determinado por dichos vectores est a contenido en el subespacio.
Las dos propiedades anteriores se pueden expresar de forma conjunta: Si dos vectores est an en S, tambien lo
est a cualquiera de sus combinaciones lineales:

_
v
1
, v
2
S
, R
_
=v
1
+v
2
S.
En particular el vector nulo pertenece a cualquier subespacio vectorial.
Obviamente S =
_

0
_
y S = R
n
son subespacios vectoriales (a veces llamados subespacios triviales).
En el espacio bidimensional, R
2
, ademas de esos dos subespacios triviales, cualquier recta que pase por el origen
es un subespacio vectorial. Sin embargo, los vectores de posicion determinados por los puntos de una par abola NO
forman un subespacio vectorial.
En el espacio tridimensional, R
3
, ademas de los dos subespacios triviales (
_

0
_
y R
3
), cualquier recta o plano que
pase por el origen es un subespacio vectorial.
Ejercicio resuelto
Encontrar unas ecuaciones implcitas del subespacio de R
4
E = Gen{(1, 1, 1, 0)
T
, (2, 0, 1, 2)
T
, (0, 2, 1, 2)
T
, (0, 2, 1, 2)
T
, (1, 1, 0, 2)
T
}.
Dado un conjunto generador {v
1
, v
2
, v
3
, v
4
, v
5
} de un subespacio E R
4
, encontrar las ecuaciones implcitas de E
es hallar las condiciones que deben vericar las componentes de un vector de R
4
, x = (x
1
, x
2
, x
3
, x
4
)
T
, para que
pertenezca a E, es decir, para que se pueda escribir como combinaci on lineal del conjunto generador x = c
1
v
1
+c
2
v
2
+
c
3
v
3
+c
4
v
4
+c
5
v
5
, es decir, para que existan esos escalares c
i
, o lo que es equivalente, para que el sistema
(v
1
|v
2
|v
3
|v
4
|v
5
)c = x, con c = (c
1
, c
2
, c
3
, c
4
, c
5
)
T
sea compatible. Para exigir esto construimos la matriz ampliada (v
1
|v
2
|v
3
|v
4
|v
5
|x):
_

_
1 2 0 0 1 x
1
1 0 2 2 1 x
2
1 1 1 1 0 x
3
0 2 2 2 2 x
4
_

_
F
2
F
1
F
3
F
1
-
_

_
1 2 0 0 1 x
1
0 2 2 2 2 x
2
x
1
0 1 1 1 1 x
3
x
1
0 2 2 2 2 x
4
_

_
F
3
F
2
/2
F
4
+F
2
-
_

_
1 2 0 0 1 x
1
0 2 2 2 2 x
2
x
1
0 0 0 0 0 x
3
x
1
/2 x
2
/2
0 0 0 0 0 x
4
+x
2
x
1
_

_
,
es decir, el sistema es compatible cuando
_
x
3
x
1
/2 x
2
/2 = 0,
x
4
+x
2
x
1
= 0,

_
x
1
+x
2
2x
3
= 0,
x
1
x
2
x
4
= 0,
que son unas ecuaciones implcitas de E.
Observemos que podamos haber buscado primero una base de E, aplicando eliminacion gaussiana a la matriz
(v
1
|v
2
|v
3
|v
4
|v
5
):
_

_
1 2 0 0 1
1 0 2 2 1
1 1 1 1 0
0 2 2 2 2
_

_
F
2
F
1
F
3
F
1
-
_

_
1 2 0 0 1
0 2 2 2 2
0 1 1 1 1
0 2 2 2 2
_

_
F
3
F
2
/2
F
4
+F
2
-
_

_
1 2 0 0 1
0 2 2 2 2
0 0 0 0 0
0 0 0 0 0
_

_
,
de donde deducimos que E = Gen{v
1
, v
2
}, es decir, una base de E es B
E
= {v
1
, v
2
}. Dada una base {v
1
, v
2
} de
un subespacio E R
4
, encontrar las ecuaciones implcitas de E es hallar las condiciones que deben vericar las
componentes de un vector de R
4
, x = (x
1
, x
2
, x
3
, x
4
)
T
, para que pertenezca a E, es decir, para que se pueda escribir
como combinaci on lineal de los vectores de la base x = c
1
v
1
+ c
2
v
2
, es decir, para que existan esos escalares c
i
, o lo
que es equivalente, para que el sistema
(v
1
|v
2
)c = x, con c = (c
1
, c
2
)
T
80
sea compatible. Para exigir esto construimos la matriz ampliada (v
1
|v
2
|x):
_

_
1 2 x
1
1 0 x
2
1 1 x
3
0 2 x
4
_

_
F
2
F
1
F
3
F
1
-
_

_
1 2 x
1
0 2 x
2
x
1
0 1 x
3
x
1
0 2 x
4
_

_
F
3
F
2
/2
F
4
+F
2
-
_

_
1 2 x
1
0 2 x
2
x
1
0 0 x
3
x
1
/2 x
2
/2
0 0 x
4
+x
2
x
1
_

_
,
es decir, el sistema es compatible cuando
_
x
3
x
1
/2 x
2
/2 = 0,
x
4
+x
2
x
1
= 0,

_
x
1
+x
2
2x
3
= 0,
x
1
x
2
x
4
= 0,
que son unas ecuaciones implcitas de E.
La garanta de que el resultado al que hemos llegado es correcto se obtiene comprobando que todos los vectores v
i
verican todas las ecuaciones implcitas obtenidas.
1.2. Espacio nulo y espacio columna de una matriz.
Asociados a una matriz A, mn,
A = [v
1
|v
2
|...|v
n
] =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
hemos considerado los denominados
Espacio nulo de la matriz A, esto es, el conjunto de vectores reales x R
n
caracterizados por las ecuaciones
implcitas
Ax = 0
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= 0
_

_
.
Espacio columna de la matriz A, subespacio generado por las columnas de A, esto es, el conjunto de vectores
y que se pueden escribir como combinaci on lineal de dichas columnas
y =
1
v
1
+
2
v
2
+ +
n
v
n
,
caracterizado por las ecuaciones parametricas
_

_
y
1
=
1
a
11
+
2
a
12
+ +
n
a
1n
y
2
=
1
a
21
+
2
a
22
+ +
n
a
2n
.
.
.
.
.
.
.
.
.
y
m
=
1
a
m1
+
2
a
m2
+ +
n
a
mn
, con
1
,
2
, . . . ,
n
R.
Resolviendo el sistema homogeneo Ax = 0 podemos obtener los vectores del espacio nulo de A como el conjunto
de vectores que se pueden expresar como combinaci on lineal (arbitraria) de determinados vectores, es decir, como el
subespacio generado por ciertos vectores o como el espacio columna de la matriz que tiene a dichos vectores como
vectores columna. Por otra parte, puesto que el espacio columna de una matriz A est a formado por los vectores y tales
que el sistema de ecuaciones Ax = y es compatible, obteniendo las condiciones de compatibilidad de este sistema (en
funci on del termino independiente y), tendremos unas ecuaciones lineales homogeneas que permiten expresar el citado
espacio columna como espacio nulo de otra matriz.
Por tanto, hablar de espacio nulo o espacio columna de una matriz (o subespacio generado por ciertos vectores)
no es hablar de conjuntos de vectores con caractersticas distintas, sino que es hablar de un mismo tipo de conjunto
de vectores, que son los denominados subespacios vectoriales, pero expresados en forma distinta:
cuando uno de dichos conjuntos de vectores viene dado como espacio nulo de una matriz tenemos una descripcion
implcita (ecuaciones implcitas) de dicho conjunto (un vector est a en el conjunto considerado si, y solo si,
sus coordenadas verican el sistema homogeneo asociado a la matriz),
81
cuando uno de dichos conjuntos de vectores viene dado como espacio columna de una matriz tenemos una des-
cripcion parametrica (ecuaciones parametricas) de dicho conjunto (un vector est a en el conjunto considerado
si, y solo si, puede expresarse como combinaci on lineal de determinados vectores).
Entre las descripciones parametricas de un subespacio vectorial unas seran mejores que otras en el sentido de que
unas involucren menos vectores que otras. Es decir, si tenemos el espacio columna de una cierta matriz A, m n,
y los vectores columna de A son linealmente dependientes, suprimiendo vectores que sean combinaci on lineal de los
que quedan, tendremos que el espacio columna de la matriz original tambien es el espacio columna de la matriz que
resulta de la matriz anterior suprimiendo algunas columnas. Si nos quedamos con un conjunto de vectores linealmente
independiente, tendremos que dichos vectores generan el espacio columna de la matriz original y cada vector de
dicho espacio se puede expresar de forma unica como combinaci on lineal de los vectores linealmente independientes
obtenidos. Dichos vectores constituyen lo que se denomina una base (es decir, un conjunto de vectores linealmente
independiente que genera el subespacio) del subespacio vectorial considerado, el espacio columna de la matriz original.
Si en la representa-cion parametrica eliminamos los par ametros, llegaremos a unas ecuaciones homogeneas que dar an
una descripcion implcita del subespacio considerado.
De forma paralela, entre las descripciones implcitas de un subespacio vectorial tambien habr a unas mejores que
otras, en el sentido de que una puede tener ecuaciones redundantes y otra no. Si mediante operaciones la reducimos
una matriz A a forma escalonada y obtenemos la matriz U, las soluciones del sistema Ux = 0 coinciden con las del
sistema Ax = 0, es decir los espacios nulos de la matriz A y de la matriz U coinciden. Si de la matriz U eliminamos las
las nulas, que proceden de ecuaciones originales redundantes en el sistema Ax = 0, tendremos un sistema de ecuaciones
sin ecuaciones redundantes y cuyas soluciones forman el espacio nulo de la matriz A original. Si resolvemos el
sistema homogeneo tendremos una descripcion parametrica del conjunto solucion, es decir, del subespacio dado.
Podemos caracterizar las matrices invertibles en terminos de sus espacios nulo y columna.
Teorema.- Consideremos una matriz cuadrada de orden n.
(1) La matriz A tiene inversa si, y solo si, Col (A) = R
n
.
(2) La matriz A tiene inversa si, y solo si, Nul (A) = {0}.
Cuando se consideran las transformaciones lineales sin hacer referencia a la matriz asociada, se suele utilizar la
siguiente terminologa:
Denicion. Consideremos una aplicacion lineal T : R
n
R
m
.
(1) Se denomina n ucleo de T y se denota por ker(T) al conjunto (subespacio)
ker(T) = {x R
n
: T(x) = 0} .
(2) Se denomina conjunto o espacio imagen de T al conjunto de vectores de R
m
que tienen anti-imagen, es decir,
Imagen(T) = T(R
n
) = {T(x) : x R
m
} = {y R
m
: x R
n
, y = T(x)} .
Si consideramos la matriz A asociada a T, tenemos
ker(T) = {x R
n
: Ax = 0} = Nul (A)
Imagen(T) = T(R
n
) = {Ax : x R
m
} = {y R
m
: x R
n
, y = Ax} =
= {y R
m
: Ax = y es un S.C.} = Col (A).
Ejemplo.- Consideremos el espacio nulo de la matriz
A =
_
_
1 2 0 3
3 0 1 1
1 4 1 5
_
_
,
es decir, estamos considerando el conjunto S de los vectores x R
4
cuyas coordenadas (x
1
, x
2
, x
3
, x
4
) verican las
ecuaciones (implcitas)
x
1
+ 2x
2
+ 3x
4
= 0
3x
1
+ x
3
x
4
= 0
x
1
+ 4x
2
+x
3
+ 5x
4
= 0
_
_
_
.
Haciendo operaciones la sobre la matriz A (que se corresponden con operaciones sobre las ecuaciones del sistema)
tenemos
A =
_
_
1 2 0 3
3 0 1 1
1 4 1 5
_
_
F
2
+ 3F
1
-
F
3
+F
1
_
_
1 2 0 3
0 6 1 8
0 6 1 8
_
_
F
3
F
2
- U =
_
_
1 2 0 3
0 6 1 8
0 0 0 0
_
_
.
82
De hecho, reriendonos a la matriz original tenemos que F
3
(A) = F
2
(A) + 2F
1
(A). Equivalentemente, la tercera
ecuaci on del sistema original es combinaci on lineal de las dos primeras con lo cual si un vector es solucion de las dos
primeras tambien lo es de la tercera. Resumiendo, tenemos que
S = Nul (A) = Nul
_
1 2 0 3
3 0 1 1
_
= Nul (U) = Nul
_
1 2 0 3
0 6 1 8
_
con lo cual nuestro conjunto S de vectores est a caracterizado por las ecuaciones (no redundantes)
x
1
+ 2x
2
+ 3x
4
= 0
6x
2
+x
3
+ 8x
4
= 0
_
_
_
o por
x
1
+ 2x
2
+ 3x
4
= 0
3x
1
+ x
3
+x
4
= 0
_
_
_
_
_
.
Resolviendo el sistema Ux = 0 tenemos
_
_
-1 2 0 3 0
0 6 1 8 0
0 0 0 0 0
_
_
=
_
_
_
_
Variables libres
x
3
y x
4
.
Variables jas
x
1
y x
2
.
_
_
_
_
=

_
_
_
x
2
=
1
6
(x
3
8x
4
)
x
1
= 2x
2
+ 3x
4
=
2
6
(x
3
8x
4
) + 3x
4
=
1
3
x
3
+
1
3
x
4

_
x
1
x
2
x
3
x
4
_

_
= x
3
_

1
3

1
6
1
0
_

_
+x
4
_

_
1
3

4
3
0
1
_

_
.
Por tanto,
Nul (A) = Gen
_

_
v
1
=
_

1
3

1
6
1
0
_

_
, v
2
=
_

_
1
3

4
3
0
1
_

_
_

_
= Gen
_

_
6v
1
=
_

_
2
1
6
0
_

_
, 3v
2
=
_

_
1
4
0
3
_

_
_

_
= Col
_

1
3
1
3

1
6

8
6
1 0
0 1
_

_
= Col
_

_
2 1
1 4
6 0
0 3
_

_
.
Los vectores {v
1
, v
2
} forman una base de S = Nul (A). Los vectores de Nul (A) son los que pueden expresarse como
combinaci on lineal de v
1
y v
2
y, como consecuencia de la independencia lineal, cada vector de S solo puede expresarse
de una unica forma como combinaci on lineal de v
1
y v
2
. Los coecientes que aparezcan en dicha combinaci on lineal
son las coordenadas del vector de S respecto a la base {v
1
, v
2
} (de S). El vector v = [8 5 18 6] est a en S y sus
coordenadas respecto a {v
1
, v
2
} son la solucion de
v = v
1
+v
2

_
_
v
_
_
=
_
_
v
1
v
2
_
_
_

_

_

1
3
1
3
8

1
6

4
3
5
1 0 18
0 1 6
_

_
,
es decir, = 18, = 6 (v = 18v
1
6v
2
).
Ejemplo.- Vamos a utilizar la misma matriz A del ejemplo anterior. El espacio columna de dicha matriz es, por
denicion de espacio columna, el conjunto de vectores y que se pueden expresar como combinaci on lineal de las
columnas de A, es decir los vectores y (con 3 coordenadas!) que se pueden expresar mediante
y =
_
_
y
1
y
2
y
3
_
_
=
_
_
1
3
1
_
_
+
_
_
2
0
4
_
_
+
_
_
0
1
1
_
_
+
_
_
3
1
5
_
_
para ciertos , , , R. Esto es lo mismo que decir que el espacio columna est a formado por los vectores y R
3
para los que el sistema de ecuaciones Ax = y tiene solucion. En dicho caso, cada solucion del sistema Ax = y nos
dara una forma de expresar y como combinaci on lineal de las columnas de A. Obtengamos, para un vector generico
83
y R
3
las condiciones de compatibilidad del sistema Ax = y, reduciendo la matriz ampliada del sistema [A|y] a forma
escalonada. Haciendo las mismas operaciones la que hemos hecho cuando hemos obtenido el espacio nulo tenemos
[A|y] =
_
_
1 2 0 3 y
1
3 0 1 1 y
2
1 4 1 5 y
3
_
_
F
2
+ 3F
1
-
F
3
+F
1
_
_
1 2 0 3 y
1
0 6 1 8 y
2
+ 3y
1
0 6 1 8 y
3
+y
1
_
_
F
3
F
2
- U =
_
_
-1 2 0 3 y
1
0 6 1 8 y
2
+ 3y
1
0 0 0 0 y
3
y
2
2y
1
_
_
.
Por tanto, el sistema Ax = y es compatible (determinado o indeterminado) y
3
y
2
2y
1
= 0. Es decir, el espacio
columna de A est a formado por los vectores y R
3
cuyas coordenadas verican la ecuaci on (lineal homogenea)
y
3
y
2
2y
1
= 0. Se trata, por tanto, de un plano (en R
3
) que pasa por el origen de coordenadas. Ademas, teniendo
la forma escalonada U que hemos obtenido, puesto que:
Las columnas 1 y 2 de U son linealmente independientes y
Las columnas 3 y 4 son combinaci on lineal de las columnas 1 y 2,
lo mismo sucede con las columnas correspondientes de la matriz A con lo cual, el espacio columna de A (generado por
las 4 columnas) coincide con el espacio generado por las columnas 1 y 2 de A (no de U!). Los vectores dados por las
columnas 1 y 2 de A forman una base de Col (A) puesto que son linealmente independientes y generan dicho espacio.
Si denotamos por v
1
, v
2
, v
3
y v
4
a los vectores columna de A, cada vector y Col (A) se puede expresar de innitas
formas distintas como combinaci on lineal de v
1
, v
2
, v
3
y v
4
puesto que el sistema de ecuaciones Ax = y es compatible
(puesto que y Col (A)) indeterminado (puesto que hay 2 variables libres). Sin embargo, dicho vector y Col (A)
solo puede expresarse de una unica forma como combinaci on lineal de v
1
y v
2
puesto que el sistema de ecuaciones
_
_
v
1
v
2
_
_
_

_
=
_
_
y
1
y
2
y
3
_
_
tendra solucion unica. Para discutir, y resolver, este sistema basta con suprimir las columnas 3 y 4 de la reduccion
que hemos hecho del sistema Ax = y con lo cual tenemos
_
_
1 2 y
1
3 0 y
2
1 4 y
3
_
_
-
_
_
-1 2 y
1
0 6 y
2
+ 3y
1
0 0 y
3
y
2
2y
1
_
_
.
La solucion unica (, ) de este sistema (compatible cuando y R
3
) nos dar a los coecientes para los cuales se verica
y = v
1
+v
2
.
Estos coecientes (, ) ( unicos para cada vector y Col (A)) se denominan coordenadas de y respecto de la base
{v
1
, v
2
}. Por ejemplo, las coordenadas del vector
y =
_
_
1
1
3
_
_
( Col (A) puesto que y
3
y
2
2y
1
= 3 1 2 = 0)
respecto a la base {v
1
, v
2
} de Col (A) vienen dadas por la solucion del sistema
_
_
v
1
v
2
_
_
_

_
=
_
_
1
1
3
_
_

_
_
-1 2 1
0 6 4
0 0 0
_
_
=
_

_
=
_
1
3
4
6
_
.
Ejercicio resuelto
Dada la matriz
A =
_

_
0 1 1
1 1 3
2 0 4
1 2 a
_

_
, a R,
encontrar, seg un los valores del par ametro a, unas ecuaciones implcitas del espacio columna de A, Col(A). Para
a = 1, escribir razonadamente, si es que existe, una matriz C, 4 5, tal que Col(C) = Col(A).
84
Si llamamos v
i
a las columnas de A, A = [v
1
|v
2
|v
3
], entonces su espacio columna, Col(A) = Gen {v
1
, v
2
, v
3
}, que
est a contenido en R
4
.
Dado un conjunto generador {v
1
, v
2
, v
3
} de un subespacio E R
4
, encontrar las ecuaciones implcitas de E es hallar
las condiciones que deben vericar las componentes de un vector de R
4
, x = (x
1
, x
2
, x
3
, x
4
)
T
, para que pertenezca a
E, es decir, para que se pueda escribir como combinaci on lineal del conjunto generador, x = c
1
v
1
+ c
2
v
2
+ c
3
v
3
, es
decir, para que existan esos escalares c
i
, o lo que es equivalente, para que el sistema
(v
1
|v
2
|v
3
)c = x, con c = (c
1
, c
2
, c
3
)
T
sea compatible. Para exigir esto construimos la matriz ampliada (v
1
|v
2
|v
3
|x):
_

_
0 1 1 x
1
1 1 3 x
2
2 0 4 x
3
1 2 a x
4
_

_
F
2
F
1
-
_

_
1 1 3 x
2
0 1 1 x
1
2 0 4 x
3
1 2 a x
4
_

_
F
3
+ 2F
1
F
4
+F
1
-
_

_
1 1 3 x
2
0 1 1 x
1
0 2 2 x
3
+ 2x
2
0 1 a 3 x
4
+x
2
_

_
F
3
2F
2
F
4
F
2
-
_

_
1 1 3 x
2
0 1 1 x
1
0 0 0 x
3
+ 2x
2
+ 2x
1
0 0 a 4 x
4
+x
2
x
1
_

_
F
4
F
3
-
_

_
1 1 3 x
2
0 1 1 x
1
0 0 a 4 x
4
+x
2
x
1
0 0 0 x
3
+ 2x
2
+ 2x
1
_

_
,
es decir, si a = 4 aparecen tres pivotes y el sistema es compatible cuando
2x
1
+ 2x
2
+x
3
= 0
(si a = 4, Col(A) R
4
tiene una sola ecuaci on implcita pues al ser las tres columnas linealmente independientes,
dim(Col(A)) = 3). Sin embargo, si a = 4, solo aparecen dos pivotes (solo hay dos columnas linealmente independientes,
con lo que dim(Col(A)) = 2 y ese subespacio tendra dos ecuaciones implcitas) y, por tanto, el sistema es compatible
cuando
_
2x
1
+ 2x
2
+x
3
= 0,
x
1
x
2
x
4
= 0,
que son unas ecuaciones implcitas de Col(A) cuando a = 4.
La garanta de que el resultado al que hemos llegado es correcto se tiene comprobando que todos los vectores v
i
verican todas las ecuaciones implcitas obtenidas (una en el caso a = 4 y dos cuando a = 4).
Nos piden despues que, para a = 1, encontremos si es posible alguna matriz C, 4 5, tal que Col(C) = Col(A).
Es decir, C = [u
1
|u
2
|u
3
|u
4
|u
5
] y como los u
i
R
4
, entonces Col(C) R
4
con lo que s puede darse Col(C) = Col(A).
(Si C no tuviera 4 las, entonces los u
i
/ R
4
y no existira C tal que Col(C) = Col(A)).
Para escribir una matriz C, 4 5, cuyo espacio columna coincida con Col(A) basta con que sus cinco columnas
sean combinaci on lineal de v
1
, v
2
y v
3
(columnas de A) y que tres de ellas sean linealmente independientes (pues las
tres columnas de A lo son para a = 1). Por ejemplo, nos sirven las matrices siguientes (por comodidad repetimos las
tres primeras columnas de A, aunque basta con que las cinco columnas veriquen la ecuaci on implcita de Col(A),
2x
1
+ 2x
2
+x
3
= 0, y que haya tres linealmente independientes):
_

_
0 1 1 0 0
1 1 3 0 0
2 0 4 0 0
1 2 1 0 0
_

_
,
_

_
0 1 1 0 0
1 1 3 1 1
2 0 4 2 2
1 2 1 1 1
_

_
,
_

_
0 1 1 1 1
1 1 3 1 3
2 0 4 0 4
1 2 1 2 1
_

_
,
_

_
0 1 1 0 3
1 1 3 2 3
2 0 4 4 0
1 2 1 2 6
_

_
,
_

_
0 1 1 0 0
1 1 3 1 1
2 0 4 2 2
1 2 1 27 0
_

_
, ...
Observemos que para las matrices B
1
= [v
1
|v
1
|v
1
|v
1
|v
1
], B
2
= [v
1
|v
2
|v
1
v
2
|0|2v
1
3v
2
], B
3
= [v
2
|v
2
|v
3
v
2
|v
3
|4v
2

5v
3
], se verica Col(B
i
) Col(A) pero no se da la igualdad Col(B
i
) = Col(A) (que es lo que nos pide el enunci-
ado; por tanto, tres columnas deben ser linealmente independientes) ya que dim(Col(B
1
)) = 1, dim(Col(B
2
)) =
dim(Col(B
3
)) = 2, mientras que dim(Col(A)) = 3.
Ejercicio resuelto
Dada la matriz
B =
_
_
1 1 1 1
1 2 0 1
0 b 1 2
_
_
, b R,
encontrar, seg un los valores del par ametro b, un conjunto generador linealmente independiente del espacio nulo de
B, Nul(B).
85
El espacio nulo de B est a formado por los vectores x R
4
tales que Bx = 0. Nos piden que encontremos un conjunto
generador linealmente independiente (una base) de dicho espacio nulo, en funci on del par ametro b. Para ello basta con
resolver el sistema Bx = 0 (homogeneo, de tres ecuaciones y cuatro inc ognitas):
_
_
1 1 1 1
1 2 0 1
0 b 1 2
_
_
F
2
F
1
-
_
_
1 1 1 1
0 3 1 2
0 b 1 2
_
_
F
3

b
3
F
2
-
_
_
1 1 1 1
0 3 1 2
0 0
b
3
1 2(
b
3
1)
_
_
.
Entonces, cuando b = 3, la matriz que representa al sistema es
_
_
1 1 1 1
0 3 1 2
0 0 0 0
_
_
con lo que tomando x
3
, x
4
como variables libres (al ser las columnas tercera y cuarta columnas no pivote) obtenemos
x
3
, x
4
R
x
2
=
1
3
(x
3
+ 2x
4
)
x
1
= x
2
x
3
x
4
=
2
3
x
3

1
3
x
4
_
_
_
x =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= x
3
_
_
_
_
2/3
1/3
1
0
_
_
_
_
+x
4
_
_
_
_
1/3
2/3
0
1
_
_
_
_
,
con lo que
Nul(B) = Gen
_

_
_
_
_
_
2/3
1/3
1
0
_
_
_
_
,
_
_
_
_
1/3
2/3
0
1
_
_
_
_
_

_
= Gen
_

_
_
_
_
_
2
1
3
0
_
_
_
_
,
_
_
_
_
1
2
0
3
_
_
_
_
_

_
y una base de Nul(B), para b = 3, es {(2, 1, 3, 0)
T
, (1, 2, 0, 3)
T
}. Conviene comprobar que estos vectores verican
el sistema Bx = 0.
Si b = 3, la matriz que representa el sistema (hemos dividido la tercera la por
b
3
1 = 0) es
_
_
1 1 1 1
0 3 1 2
0 0 1 2
_
_
con lo que, tomando x
4
como variable libre (al ser la cuarta columna no pivote), obtenemos
x
4
R
x
3
= 2x
4
x
2
=
1
3
(x
3
+ 2x
4
) = 0
x
1
= x
2
x
3
x
4
= x
4
_

_
x =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= x
4
_
_
_
_
1
0
2
1
_
_
_
_
Nul(B) = Gen
_

_
_
_
_
_
1
0
2
1
_
_
_
_
_

_
y una base de Nul(B), para b = 3, es {(1, 0, 2, 1)
T
}. Conviene comprobar que este vector verica el sistema Bx = 0.
Ejercicio resuelto
Dada la matriz A =
_
1 2 1
2 4 2
_
, escribir, si es posible, dos matrices cuadradas de orden 3 y dos matrices
3 4 cuyo espacio columna coincida con el espacio nulo de A, Nul(A).
Vamos a calcular, en primer lugar el espacio nulo de A, Nul(A), es decir vamos a encontrar los vectores x tales que
Ax = 0. Puesto que A es una matriz 2 3, para que se pueda hacer el producto Ax, debe vericarse que x R
3
. As,
Ax = 0 nos proporciona las ecuaciones implcitas de Nul(A):
Nul(A)
_
x
1
+ 2x
2
+x
3
= 0
2x
1
4x
2
2x
3
= 0
Nul(A) = Gen
_
_
_
v
1
=
_
_
2
1
0
_
_
, v
2
=
_
_
1
0
1
_
_
_
_
_
.
Por tanto, una base de Nul(A) es {v
1
, v
2
}. Para escribir matrices 3 3 cuyo espacio columna coincida con Nul(A)
basta con que sus tres columnas sean combinaci on lineal de v
1
y v
2
(o, equivalentemente, que veriquen su ecuaci on
implcita x
1
+ 2x
2
+x
3
= 0) y que dos sean linealmente independientes:
_
_
2 1 0
1 0 0
0 1 0
_
_
,
_
_
2 1 2
1 0 1
0 1 0
_
_
,
_
_
2 1 1
1 0 0
0 1 1
_
_
,
_
_
1 2 3
0 1 1
1 0 1
_
_
,
_
_
1 2 4
0 1 0
1 0 4
_
_
, ...
86
Observemos que para la matriz B = [v
1
|v
1
|v
1
] se verica Col(B) Nul(A) pero no se da la igualdad Col(B) = Nul(A)
(que es lo que nos pide el enunciado). Por tanto, dos columnas deben ser linealmente independientes.
Si las matrices son 3 4, se aplica el mismo razonamiento sobre las cuatro columnas: todas deben ser combinaci on
lineal de v
1
y v
2
y, simult aneamente, dos deben ser linealmente independientes:
_
_
2 1 0 0
1 0 0 0
0 1 0 0
_
_
,
_
_
2 1 2 4
1 0 1 0
0 1 0 4
_
_
,
_
_
2 1 2 7
1 0 1 0
0 1 0 7
_
_
,
_
_
1 2 2 2
0 1 1 1
1 0 0 0
_
_
, ...
2. Bases de un subespacio.
Denicion. Dado un subespacio S de R
n
distinto del subespacio nulo S = {0}, se dice que un conjunto de vectores
{v
1
, v
2
, . . . , v
r
}
de S es una base de S si:
(a) {v
1
, v
2
, . . . , v
r
} es linealmente independiente,
(b) {v
1
, v
2
, . . . , v
r
} genera S,
S = Gen {v
1
, v
2
, . . . , v
r
} .
Las anteriores condiciones se pueden expresar de forma matricial: Si denotamos por A a la matriz cuyas columnas
son los vectores dados
A =
_

_
.
.
.
.
.
.
.
.
.
v
1
v
2
.
.
. v
r
.
.
.
.
.
.
.
.
.
_

_
las columnas de A forman una base de un subespacio vectorial S si:
(a) El sistema homogeneo Ax = 0 tiene solucion unica (condici on equivalente a que los vectores sean linealmente
independientes) y
(b) S = Col (A), es decir S est a formado por los vectores y R
m
para los que el sistema de ecuaciones Ax = y es
compatible.
Ejemplo. Los vectores canonicos de R
n
,
_

_
e
1
=
_

_
1
0
.
.
.
0
_

_
, e
2
=
_

_
0
1
.
.
.
0
_

_
, . . . , e
n
=
_

_
0
.
.
.
0
1
_

_
_

_
forman una base de R
n
. Los vectores
{e
1
, e
1
+e
2
, , e
1
+e
2
+ +e
n
}
tambien forman una base de R
n
.
Denicion/Teorema. (Coordenadas respecto de una base) Dada una base {v
1
, v
2
, . . . , v
r
} de un subespacio vectorial
S, cada vector v de S se puede expresar de forma unica como combinaci on lineal de los vectores de la base dada,
v = c
1
v
1
+c
2
v
2
+ +c
r
v
r
.
Los coecientes que aparecen en dicha expresion (c
1
, . . . , c
r
) se denominan coordenadas de v respecto a la base dada
B = {v
1
, v
2
, . . . , v
r
} y se suelen denotar por
[v]
B
=
_

_
c
1
.
.
.
c
r
_

_.
Denicion/Teorema. Consideremos un subespacio vectorial S de R
m
distinto del subespacio nulo S = {0}. Se
verican:
87
(a) S tiene base.
(b) Todas las bases de S tienen el mismo n umero de elementos.
Al n umero de elementos de una base de S se le denomina dimensi on de S. Por denicion, la dimensi on del
subespacio formado por el vector nulo es cero.
Si, al igual que antes, denotamos por A a la matriz cuyas columnas son los vectores dados
A =
_

_
.
.
.
.
.
.
.
.
.
v
1
v
2
.
.
. v
r
.
.
.
.
.
.
.
.
.
_

_
,
para cada vector v (vector columna) de S se verica que
v = Ac
para alg un vector de coecientes c.
Teorema (El Teorema de la Base). Consideremos un subespacio vectorial S de R
m
de dimensi on p (p m) y un
conjunto de vectores {u
1
, . . . , u
q
} S.
(a) Si {u
1
, . . . , u
q
} generan S, entonces q p. Ademas, q = p {u
1
, . . . , u
q
} es una base de S.
(b) Si {u
1
, . . . , u
q
} es linealmente independiente, entonces q p. Ademas, q = p {u
1
, . . . , u
q
} es una base de S.
En particular, si tenemos un conjunto de n vectores de R
m
:
Si n > m, los n vectores no pueden ser linealmente independientes,
Si m > n, los n vectores no pueden generar R
m
.
3. Rango de una matriz.
Denicion. Dada una matriz A, m n, se llama rango de A a la dimensi on de su espacio columna, es decir, a la
dimensi on del subespacio vectorial (de R
m
)
Col (A) = {combinaciones lineales de las columnas de A}
= {Ax : x R
n
} = {y R
m
: Ax = y es compatible} .
Teniendo en cuenta la relacion entre la dimensi on del espacio columna de A y la reduccion de A a forma escalonada
tenemos que
rango(A) = n umero de pivotes de A.
Para una matriz cuadrada A de orden n, teniendo en cuenta los resultados sobre la existencia de la inversa
obtenemos que:
A tiene inversa rango(A) = n.
Teorema. Consideremos una matriz A, mn. Se verican:
(a) rango(A) = rango(A
T
). Es decir, la dimensi on del subespacio vectorial (de R
n
) generado por las m las de A
coincide con la dimensi on del espacio columna de A (subespacio vectorial de R
m
generado por las n columnas
de A):
dim(Col (A)) = dim
_
Col (A
T
)
_
.
Es decir, si por un lado reducimos la matriz A a forma escalonada por las (mediante operaciones la) y por
otro reducimos a forma escalonada por columnas (mediante operaciones columna), el n umero de pivotes que se
tienen en ambas reducciones es el mismo.
88
(b) Teorema del rango.
dim(Col (A)) + dim(Nul (A)) = n.
(c) En terminos de la reduccion por las de A a forma escalonada, el Teorema del rango se puede expresar mediante:
(n umero de pivotes) + (n umero de variables libres) = n.
Si consideramos la transformaci on lineal T : R
n
R
m
, asociada a una matriz real A, m n, el espacio imagen
de la transformaci on es el espacio columna de la matriz A,
Imagen(T) = T(R
n
) = {T(x) R
m
: x R
n
} =
= {y R
m
: y = T(x) para alg un x R
n
} = Col (A).
Se trata, por tanto, de un subespacio vectorial de R
m
cuya dimensi on es rango(A).
La imagen, mediante T, de cualquier subespacio vectorial S de R
n
sera un subespacio vectorial T(S) de R
m
contenido en el espacio imagen (columna) y por tanto la dimensi on de dicho subespacio T(S) sera menor o igual que
el rango de A (y menor o igual que la dimensi on del subespacio S original).
Por otra parte, si consideramos un subespacio vectorial H de R
m
, el conjunto de los vectores x R
n
cuyos
transformados T(x) = Ax pertenecen a H forman un subespacio vectorial de R
n
. En particular, si H es el subespacio
nulo de R
m
, es decir, H = {0} R
m
entonces, obtenemos el n ucleo de la transformaci on T o lo que es lo mismo, el
espacio nulo de A,
ker(T) = {x R
n
: T(x) = 0} = {x R
n
: Ax = 0} = Nul (A).
Ejercicio resuelto
Considera la transformaci on lineal T que verica
T
_
_
_
_
1
2
0
_
_
_
_
=
_

_
1
1
1
2
_

_
, T
_
_
_
_
1
1
0
_
_
_
_
=
_

_
0
3
0
3
_

_
, T
_
_
_
_
1
0
1
_
_
_
_
=
_

_
1
4
1
5
_

_
.
(a) Calcula la matriz A tal que T(x) = Ax para todo x R
3
.
(b) Calcula unas ecuaciones implcitas del espacio columna de A.
(c) Calcula un conjunto linealmente independiente de vectores S que genere el subespacio nulo de A.
(a) La aplicacion lineal T : R
3
R
4
tiene asociada, respecto de las bases canonicas, la matriz A en cuyas columnas
aparecen los transformados de la base canonica del espacio de partida, es decir, A = [T(e
1
)|T(e
2
)|T(e
3
)].
Una posibilidad es plantear el sistema de ecuaciones vectoriales, donde, por comodidad llamamos a = (1, 1, 1, 2)
T
,
b = (0, 3, 0, 3)
T
, c = (1, 4, 1, 5)
T
,
T([1, 2, 0]
T
) = T(e
1
+ 2e
2
) = T(e
1
) + 2T(e
2
) = a
T([1, 1, 0]
T
) = T(e
1
+e
2
) = T(e
1
) +T(e
2
) = b
T([1, 0, 1]
T
) = T(e
1
+e
3
) = T(e
1
) +T(e
3
) = c
_
_
_

T(e
2
) = a b = (1, 2, 1, 1)
T
T(e
1
) = b T(e
2
) = (1, 5, 1, 4)
T
T(e
3
) = c T(e
1
) = (2, 1, 2, 1)
T
_
_
_
que en este caso se resuelve trivialmente (en general, lo resolveremos mediante eliminacion de Gauss).
Por tanto,
A = [T(e
1
)|T(e
2
)|T(e
3
)] =
_

_
1 1 2
5 2 1
1 1 2
4 1 1
_

_
.
Antes de seguir, podemos asegurarnos de que la matriz encontrada es la correcta comprobando que
A[1, 2, 0]
T
= (1, 1, 1, 2)
T
, A[1, 1, 0]
T
= (0, 3, 0, 3)
T
A[1, 0, 1]
T
= (1, 4, 1, 5)
T
.
Otra forma de encontrar A es escribir matricialmente las igualdades que nos dan:
A
_
_
1
2
0
_
_
=
_

_
1
1
1
2
_

_
, A
_
_
1
1
0
_
_
=
_

_
0
3
0
3
_

_
, A
_
_
1
0
1
_
_
=
_

_
1
4
1
5
_

_
A
_
_
1 1 1
2 1 0
0 0 1
_
_
=
_

_
1 0 1
1 3 4
1 0 1
2 3 5
_

_
,
89
de donde deducimos
A =
_

_
1 0 1
1 3 4
1 0 1
2 3 5
_

_
_
_
1 1 1
2 1 0
0 0 1
_
_
1
=
_

_
1 0 1
1 3 4
1 0 1
2 3 5
_

_
_
_
1 1 1
2 1 2
0 0 1
_
_
=
_

_
1 1 2
5 2 1
1 1 2
4 1 1
_

_
.
La matriz inversa que aparece la hemos calculado aplicando el metodo de GaussJordan:
_
_
1 1 1 1 0 0
2 1 0 0 1 0
0 0 1 0 0 1
_
_

_
_
1 1 1 1 0 0
0 1 2 2 1 0
0 0 1 0 0 1
_
_

_
_
1 1 0 1 0 1
0 1 0 2 1 2
0 0 1 0 0 1
_
_

_
_
1 0 0 1 1 1
0 1 0 2 1 2
0 0 1 0 0 1
_
_

_
_
1 0 0 1 1 1
0 1 0 2 1 2
0 0 1 0 0 1
_
_
.
(b) Puesto que
Col(A) = Gen
_

_
_
_
_
_
1
5
1
4
_
_
_
_
,
_
_
_
_
1
2
1
1
_
_
_
_
,
_
_
_
_
2
1
2
1
_
_
_
_
_

_
,
dado un conjunto generador {v
1
, v
2
, v
3
} del subespacio Col(A) R
4
, encontrar las ecuaciones implcitas de Col(A) es
hallar las condiciones que deben vericar las componentes de un vector de R
4
, x = (x
1
, x
2
, x
3
, x
4
)
T
, para que pertenezca
a Col(A), es decir, para que se pueda escribir como combinaci on lineal del conjunto generador x = c
1
v
1
+c
2
v
2
+c
3
v
3
,
es decir, para que existan esos escalares c
i
, o lo que es equivalente, para que el sistema
(v
1
|v
2
|v
3
)c = x, con c = (c
1
, c
2
, c
3
)
T
sea compatible. Para exigir esto construimos la matriz ampliada (v
1
|v
2
|v
3
|x):
_

_
1 1 2 x
1
5 2 1 x
2
1 1 2 x
3
4 1 1 x
4
_

_
1 1 2 x
1
0 3 9 x
2
5x
1
0 0 0 x
3
+x
1
0 3 9 x
4
+ 4x
1
_

_
1 1 2 x
1
0 3 9 x
2
5x
1
0 0 0 x
3
+x
1
0 0 0 x
4
x
1
+x
2
_

_
,
es decir, las coordenadas de los vectores que pertenezcan a Col(A) deben vericar
x
1
+x
3
= 0, x
1
x
2
x
4
= 0.
Merece la pena emplear unos segundos, para estar seguros de que el resultado obtenido es correcto, en comprobar que
los tres vectores que generan el espacio columna verican todas (dos en nuestro caso) las ecuaciones obtenidas.
Observemos que dim(Col(A)) = 2 (pues la tercera columna de A es combinaci on lineal de las dos primeras) y al
estar ese subespacio en R
4
lo denen dos ecuaciones implcitas.
(c) El espacio nulo de A est a formado por los vectores x R
3
tales que Ax = 0. Al aplicar el metodo de eliminacion
para resolverlo vamos a obtener el mismo resultado (en las tres primeras columnas) que el conseguido al buscar las
ecuaciones implcitas en el apartado anterior:
_

_
1 1 2
5 2 1
1 1 2
4 1 1
_

_
1 1 2
0 3 9
0 0 0
0 3 9
_

_
1 1 2
0 3 9
0 0 0
0 0 0
_

_
x
1
= x
2
+ 2x
3
= 3x
3
+ 2x
3
= x
3
,
x
2
= 3x
3
,
con lo que Nul(A) = Gen {v = (1, 3, 1)
T
}, es decir, S =
_
_
_
_
_
1
3
1
_
_
_
_
_
. Es facil comprobar que v verica Av = 0,
es decir, que pertenece a Nul(A). Ademas, sabiendo que, en nuestro caso, T est a denida en R
3
, la igualdad
dim(Col(A)) +dim(Nul(A)) = 3
nos permita saber, antes de comenzar este apartado, que
dim(Nul(A)) = 3 dim(Col(A)) = 3 2 = 1.
90
4. Bases de R
n
. Cambios de base.
4.1. Bases de R
n
.
Todas las bases de R
n
est an formadas por n vectores. Puesto que en ese caso tendremos n vectores linealmente
independientes con n coordenadas cada uno, la matriz cuadrada formada por dichos vectores como vectores columna
tiene inversa (y los vectores columna de dicha matriz inversa formaran otra base de R
n
). Por otra parte, tambien los
vectores la de las dos matrices citadas seran una base de R
n
. Para comprobar si n vectores forman una base de R
n
bastara con reducir a forma escalonada la matriz formada por dichos vectores como vectores columna y comprobar si
se obtienen n pivotes. Notemos que, el orden de los vectores no inuye en si estos forman base o no.
Ejemplo. Siendo e
1
, e
2
, . . . , e
n
los vectores de la base canonica de R
n
, los vectores
e
1
, e
1
+e
2
, e
1
+e
2
+e
3
, . . . , e
1
+e
2
+ +e
n
forman una base de R
n
y para calcular las coordenadas de un vector generico x R
n
respecto de esta base basta con
resolver el sistema (con termino independiente x)
_

_
1 1 1
0 1 1
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
_

2
.
.
.

n
_

_
=
_

_
x
1
x
2
.
.
.
x
n
_

_
.
Resolvemos el sistema
_

_
1 1 1 x
1
0 1 1 x
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x
n
_

_
1 0 0 0 x
1
x
2
0 1 0 0 x
2
x
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 x
n1
x
n
0 0 0 1 x
n
_

_
.
Por tanto, las coordenadas de x respecto a la base dada son
_

2
.
.
.

n1

n
_

_
=
_

_
x
1
x
2
x
2
x
3
.
.
.
x
n1
x
n
x
n
_

_
.
4.2. Cambios de base.
Dada una base B = {v
1
, v
2
, . . . , v
n
} de R
n
, las coordenadas de un vector x R
n
respecto a dicha base son los
coecientes ( unicos)
1
,
2
, . . . ,
n
para los cuales se verica

1
v
1
+
2
v
2
+ +
n
v
n
= x
_

_
.
.
.
.
.
.
.
.
.
v
1
v
2
.
.
. v
n
.
.
.
.
.
.
.
.
.
_

_
_

2
.
.
.

n
_

_
= x =
_

_
x
1
x
2
.
.
.
x
n
_

_
con x =
_

_
x
1
x
2
.
.
.
x
n
_

_
las coordenadas de xrespecto de la base canonica.
Dadas dos bases
U = {u
1
, u
2
, . . . , u
n
} y B = {v
1
, v
2
, . . . , v
n
}
de R
n
se trata de hallar la relacion entre las coordenadas de un vector x R
n
respecto de ambas bases. Hallemos
primero, la relacion entre las coordenadas del vector x en la base U y la base canonica C. Las coordenadas de un vector
91
x R
n
respecto a U vienen dadas por un vector [x]
U
que verica que
x =
_

_
x
1
x
2
.
.
.
x
n
_

_
, [x]
U
=
_

2
.
.
.

n
_

_
x =
1
u
1
+
2
u
2
+ +
n
u
n

_
x
1
x
2
.
.
.
x
n
_

_
=
_

_
.
.
.
.
.
.
.
.
.
u
1
u
2
.
.
. u
n
.
.
.
.
.
.
.
.
.
_

_
_

2
.
.
.

n
_

_
. ()
La matriz
_

_
.
.
.
.
.
.
.
.
.
u
1
u
2
.
.
. u
n
.
.
.
.
.
.
.
.
.
_

_
que relaciona las coordenadas de un mismo vector x respecto a la base canonica con las coordenadas del mismo vector
x respecto a la base U se denomina matriz del cambio de base U C de U a la base canonica C = {e
1
, e
2
, . . . , e
n
}
y se denota por
P
C U
=
_

_
.
.
.
.
.
.
.
.
.
u
1
u
2
.
.
. u
n
.
.
.
.
.
.
.
.
.
_

_
, x = [x]
C
= P
C U
[x]
U
Puesto que la igualdad () es equivalente a
_

2
.
.
.

n
_

_
=
_

_
.
.
.
.
.
.
.
.
.
u
1
u
2
.
.
. u
n
.
.
.
.
.
.
.
.
.
_

_
1
_

_
x
1
x
2
.
.
.
x
n
_

_
[x]
U
=
_
P
C U
_
1
[x]
C
la matriz
_
P
C U
_
1
es la matriz del cambio de base C U con lo cual
P
U C
=
_
P
C U
_
1
.
De forma analoga, si consideramos ahora las bases de R
n
,
B = {v
1
, v
2
, . . . , v
n
} y U = {u
1
, u
2
, . . . , u
n
}
podramos obtener las matrices de cambio de base B U y U B de la misma forma que lo que acabamos de
hacer si conocieramos las coordenadas de los vectores de una base respecto a la otra. Si, en cambio, conocemos las
coordenadas de los vectores de ambas bases respecto, por ejemplo, a la base canonica, tenemos un planteamiento
similar.
Denotemos las coordenadas de un vector generico x R
n
respecto de ambas bases B y U mediante
[x]
B
=
_

1
.
.
.

n
_

_, [x]
U
=
_

1
.
.
.

n
_

_.
Tenemos entonces que x =
1
v
1
+ +
n
v
n
=
1
u
1
+ +
n
u
n
y expresando estas igualdades en forma matricial
tenemos que
x =
_

_
x
1
.
.
.
x
3
_

_ =
_
_
v
1
v
2
v
n
_
_
_

1
.
.
.

n
_

_ =
_
_
u
1
u
2
u
n
_
_
_

1
.
.
.

n
_

_
es decir, siendo B la matriz cuyas columnas son los vectores de la base B en la base canonica y siendo U la matriz
cuyas columnas son los vectores de la base U en la base canonica, se verica que
x = B[x]
B
= U[x]
U
.
92
Por tanto,
[x]
B
= B
1
U[x]
U
= P
B U
= B
1
U,
[x]
U
= U
1
B[x]
B
= P
U B
= U
1
B.
Ejemplos.
(1) Vamos a calcular las matrices de cambio de base entre la base canonica de R
3
y la base
B =
_
v
1
= [2 1 0]
T
, v
2
= [1 2 3]
T
, v
3
= [1 0 1]
T
_
.
Siendo las coordenadas de un vector generico x R
3
respecto a B y respecto a la base canonica
[x]
B
=
_
_

3
_
_
, x =
_
_
x
1
x
2
x
3
_
_
,
respectivamente, se verica que
x =
1
v
1
+
2
v
2
+
3
v
3

_
_
x
1
x
2
x
3
_
_
=
_
_
v
1
v
2
v
3
_
_
_
_

3
_
_
.
Por tanto, la matriz
P =
_
_
v
1
v
2
v
3
_
_
=
_
_
2 1 1
1 2 0
0 3 1
_
_
(cuyas columnas son las coordenadas de los vectores de la base B respecto a la base C es la matriz
P
C B
del
cambio de base B C puesto que
x = [x]
C
= P[x]
B
, x R
3
.
Puesto que la inversa P
1
verica
[x]
B
= P
1
[x]
C
, x R
3
dicha matriz es la del cambio de base C B. Resumiendo,
P
C B
= P =
_
_
2 1 1
1 2 0
0 3 1
_
_
, P
B C
= P
1
=
1
6
_
_
2 2 2
1 2 1
3 6 3
_
_
.
(2) Calculemos las matrices de cambio de base entre las bases
B =
_
_
_
v
1
=
_
_
2
1
0
_
_
, v
2
=
_
_
1
2
3
_
_
, v
3
=
_
_
1
0
1
_
_
_
_
_
y
U =
_
_
_
u
1
=
_
_
1
2
1
_
_
, u
2
=
_
_
1
2
2
_
_
, u
3
=
_
_
1
3
2
_
_
_
_
_
.
Denotemos las coordenadas de un vector generico x R
3
respecto de ambas bases B y U mediante
[x]
B
=
_
_

3
_
_
, [x]
U
=
_
_

3
_
_
.
Tenemos entonces que x =
1
v
1
+
2
v
2
+
3
v
3
=
1
u
1
+
2
u
2
+
3
u
3
. Escribiendo estas igualdades en forma
matricial
_
_
x
1
x
2
x
3
_
_
=
_
_
2 1 1
1 2 0
0 3 1
_
_
_
_

3
_
_
=
_
_
1 1 1
2 2 3
1 2 2
_
_
_
_

3
_
_
93
obtenemos
_
_

3
_
_
=
_
_
2 1 1
1 2 0
0 3 1
_
_
1
_
_
1 1 1
2 2 3
1 2 2
_
_
_
_

3
_
_
y, por tanto,
P
B U
=
_
_
2 1 1
1 2 0
0 3 1
_
_
1
_
_
1 1 1
2 2 3
1 2 2
_
_
=
1
6
_
_
2 2 2
1 2 1
3 6 3
_
_
_
_
1 1 1
2 2 3
1 2 2
_
_
=
1
6
_
_
4 2 12
4 7 3
18 9 21
_
_
.
Analogamente podramos obtener
P
U B
=
_
_
P
B U
_
_
1
=
1
15
_
_
20 25 15
5 22 6
15 12 6
_
_
.
Ejercicio resuelto
Dadas las bases de R
2
, B
1
=
__
5
2
_
,
_
2
1
__
y B
2
=
__
3
1
_
,
_
4
1
__
, encontrar, con la ayuda
de la matriz correspondiente, las coordenadas en la base B
2
del vector v cuyas coordenadas en la base B
1
son
[v]
B1
= (2, 1)
B1
.
Sabemos que dada una base de R
2
, B
1
= {v
1
, v
2
}, la matriz P
B1
= [v
1
|v
2
] relaciona las coordenadas que un vector v
tiene en la base canonica, [v]
BC
, y las que tiene en la base B
1
, [v]
B1
, de forma que
[v]
BC
= P
B1
[v]
B1
.
Analogamente, dada una base B
2
= {u
1
, u
2
}, la matriz P
B2
= [u
1
|u
2
] relaciona las coordenadas que un vector v tiene
en la base canonica, [v]
BC
, y las que tiene en la base B
2
, [v]
B2
, de forma que
[v]
BC
= P
B2
[v]
B2
.
Combinando ambas expresiones obtenemos
P
B1
[v]
B1
= P
B2
[v]
B2

_
[v]
B2
= P
1
B2
P
B1
[v]
B1
= P
B2B1
[v]
B1
,
[v]
B1
= P
1
B1
P
B2
[v]
B2
= P
B1B2
[v]
B2
.
Como el enunciado nos da [v]
B1
, usaremos [v]
B2
= P
1
B2
P
B1
[v]
B1
. Puesto que
P
B1
=
_
5 2
2 1
_
, P
B2
=
_
3 4
1 1
_
P
1
B2
P
B1
=
_
1 4
1 3
_ _
5 2
2 1
_
=
_
3 2
1 1
_
obtenemos [v]
B2
= P
1
B2
P
B1
[v]
B1
=
_
3 2
1 1
_ _
2
1
_
=
_
4
1
_
.
Es facil comprobar que el resultado es correcto. Teniendo en cuenta las coordenadas obtenidas en ambas bases
v = 2v
1
+v
2
= 4u
1
u
2
con lo que debe ser cierto
2
_
5
2
_
+
_
2
1
_
= 4
_
3
1
_

_
4
1
_
.
De aqu deducimos ademas (sin mas que sumar los vectores) que, en la base canonica, v = (8, 3)
T
.
Ejercicio resuelto
Consideremos una transformaci on lineal f : R
3
R
3
.
Hallar la matriz A que representa a f cuando se trabaja con la base canonica B = {e
1
, e
2
, e
3
}, sabiendo que A es
simetrica, que f(e
1
) = e
2
+e
3
, f(e
1
+e
2
+e
3
) = 2(e
1
+e
2
+e
3
) y que f(e
2
) pertenece al subespacio E de ecuaci on
x z = 0.
94
La aplicacion lineal dada f : R
3
R
3
tiene asociada, respecto de las bases canonicas, la matriz A en cuyas columnas
aparecen los transformados de la base canonica del espacio de partida, es decir,
A = [f(e
1
)|f(e
2
)|f(e
3
)] =
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
.
Al ser A simetrica, A
T
= A, debe ser b
1
= a
2
, c
1
= a
3
y c
2
= b
3
, con lo que A =
_
_
a
1
a
2
a
3
a
2
b
2
b
3
a
3
b
3
c
3
_
_
. Puesto que
f(e
1
) = Ae
1
= e
2
+e
3
= (0, 1, 1)
T
la matriz A sera
A =
_
_
0 1 1
1 b
2
b
3
1 b
3
c
3
_
_
.
Puesto que f(e
2
) pertenece al subespacio E de ecuaci on x z = 0, los elementos de la segunda columna de A deben
vericar dicha ecuaci on, es decir, 1 b
3
= 0, con lo que b
3
= 1 y tenemos
A =
_
_
0 1 1
1 b
2
1
1 1 c
3
_
_
.
Finalmente, usando f(e
1
+e
2
+e
3
) = f(e
1
) +f(e
2
) +f(e
3
) = (2, 2, 2)
T
, obtenemos que la tercera columna de A debe
vericar
f(e
3
) = (2, 2, 2)
T
f(e
1
) f(e
2
) = (2, 2, 2)
T
(0, 1, 1)
T
(1, b
2
, 1)
T
= (1, 1 b
2
, 0)
T
.
Por tanto, debe ser (1, 1, c
3
)
T
= (1, 1 b
2
, 0)
T
, con lo que b
2
= 0, c
3
= 0, y la matriz pedida es
A =
_
_
0 1 1
1 0 1
1 1 0
_
_
.
Es recomendable emplear un minuto en comprobar que la matriz calculada satisface todas las condiciones del enunciado,
es decir, que no nos hemos equivocado al calcularla.
5. Ejercicios.
Ejercicio 1. Determinar si los siguientes conjuntos son subespacios vectoriales de R
2
y R
3
, respectivamente:
(a) H =
__
x
y
_
R
2
: x 0, y 0
_
.
(b) H =
_
_
_
_
_
x
y
z
_
_
R
3
: x +y = 0
_
_
_
.
Ejercicio 2. Sea E el conjunto de vectores de R
4
cuyas dos primeras coordenadas suman cero.
(a) Probar que E es un subespacio vectorial de R
4
.
(b) Calcular un sistema generador linealmente independiente para dicho subespacio.
(c) Hallar unas ecuaciones implcitas del subespacio E.
Ejercicio 3. Probar que el espacio nulo y columna de una matriz A de orden m n son subespacios vectoriales de
R
n
y R
m
respectivamente.
Ejercicio 4. Dados la matriz A y el vector b por
A =
_
_
1 2
1 1
0 2
_
_
, b =
_
_
3
2
2
_
_
.
95
(a) Determinar si el vector b pertenece al espacio columna de la matriz A.
(b) Obtener los vectores pertenecientes al espacio nulo de la matriz A.
Ejercicio 5. Sean las matrices A, B y el vector b dados por
A =
_

_
1 0 1 1
1 1 2 0
1 0 1 1
1 1 2 0
_

_
, B =
_
_
1 1 0
0 1 2
1 1 3
_
_
, b =
_

_
3
0
1
0
_

_
.
(a) Determinar unas ecuaciones implcitas y parametricas del espacio columna de las matrices A y B.
(b) Determinar unas ecuaciones implcitas linealmente independientes y unas ecuaciones parametricas del espacio
nulo de A y B.
(c) Hallar un sistema generador linealmente independiente para el espacio nulo y columna de dichas matrices.
(d) Razonar si el vector b pertenece al espacio nulo de la matriz A. Y al espacio nulo de la matriz B?
Ejercicio 6. (a) Determinar el rango de las siguientes matrices:
A =
_

_
0 1 1 2 0
0 2 1 2 2
0 1 1 2 0
0 0 1 2 3
_

_
, B =
_

_
1 1 1 2
3 2 3 2
2 1 2 2
0 1 0 2
_

_
.
(b) Sea A una matriz 20 15 cuyo rango es 12. Determinar la dimensi on de los siguientes subespacios vectoriales,
Col (A), Nul (A), Col (A
T
) y Nul (A
T
).
Ejercicio 7. Siendo e
1
, e
2
, e
3
los vectores de la base canonica de R
3
y sabiendo que los vectores de la base B verican
e
1
= 2u
1
+ 2u
2
+ u
3
, e
2
= u
1
2u
2
+ 2u
3
, e
3
= 2u
1
+ u
2
+ 2u
3
, se nalar la relacion correcta entre las siguientes
(considerando a los vectores como vectores-columna)
(a) [e
1
e
2
e
3
] =
_
_
2 2 1
1 2 2
2 1 2
_
_
[u
1
u
2
u
3
] .
(b) [u
1
u
2
u
3
] =
_
_
_
_
2 2 1
1 2 2
2 1 2
_
_
_
_
1
=
1
9
_
_
2 1 2
2 2 1
1 2 2
_
_
.
(c) [u
1
u
2
u
3
] =
_
_
_
_
2 1 2
2 2 1
1 2 2
_
_
_
_
1
=
1
9
_
_
2 2 1
1 2 2
2 1 2
_
_
.
Ejercicio 8. Consideremos la base B = {(2, 1)
T
, (3, 1)
T
} de R
2
. R
4
:
(a) Obtener, en dicha base, las ecuaciones implcitas y las parametricas de los subespacios que, en la base canonica,
vienen denidos mediante
E x
1
+x
2
= 0, F x
1
2x
2
= 0, G = Gen {(1, 1)
T
}, H = Gen {(3, 1)
T
}.
(b) Obtener, en la base canonica, las ecuaciones implcitas y las parametricas de los subespacios que, en la base B,
vienen denidos mediante
E y
1
+ 5y
2
= 0, F y
2
= 0, G = Gen {(1, 0)
T
B
}, H = Gen {(2, 4)
T
B
}.
96
Tema 5.- Ortogonalidad. Mnimos cuadrados
1. Producto escalar. Norma, distancia, angulos y ortogonalidad.
2. El complemento ortogonal de un subespacio.
3. Bases ortonormales de un subespacio. Matrices ortogonales.
4. Proyeccion ortogonal sobre un subespacio. El teorema de la mejor aproximacion.
5. El metodo de Gram-Schmidt.
6. Problemas de mnimos cuadrados. Ecuaciones normales de Gauss.
7. Ajuste de curvas, regresion lineal.
8. Ejercicios.
En este tema estudiamos la estructura metrica de los espacios R
n
, es decir, las cuestiones relacionadas con distancias
y angulos. Al contrario de lo que sucede con el estudio de la resolucion de sistemas de ecuaciones lineales, el algebra de
matrices, etc., el hecho de considerar aqu vectores reales es esencial. Para poder considerar conceptos metricos en C
n
,
es decir, con vectores de coordenadas complejas, habra que considerar la denicion apropiada (coherente) de producto
escalar de vectores complejos, que se suele denominar producto hermtico. Al aplicar dicha denicion a vectores reales
nos dara la denicion usual que vemos a continuacion y que los alumnos conocen en dimensi on 2 y en dimensi on 3.
Finalmente, estudiaremos el problema del ajuste por mnimos cuadrados, de gran interes en las aplicaciones.
1. Producto escalar. Norma, distancia, angulos y ortogonalidad.
Denicion. (Producto escalar, norma, ortogonalidad) Consideremos dos vectores x, y R
n
Se denomina Producto escalar de dos vectores x, y R
n
al n umero real
x y = x
T
y = y
T
x = x
1
y
1
+x
2
y
2
+ + x
n
y
n
R.
Se denomina Norma de un vector x R
n
al n umero real no-negativo
||x|| =
_
|x
1
|
2
+ +|x
n
|
2
=

x x 0.
Se denomina Distancia entre dos vectores x, y R
n
al n umero real no-negativo
d(x, y) = ||x y|| .
Ortogonalidad
(a) Se dice que dos vectores x, y R
n
son ortogonales (x y) si
x y = 0.
(b) Se dice que un conjunto de vectores {v
1
, . . . , v
m
} de R
n
es un conjunto ortogonal si cada uno de los
vectores v
k
es ortogonal a todos los dem as,
v
k
v
j
= 0, j = k.
(c) Se dice que un conjunto de vectores {v
1
, . . . , v
m
} de R
n
es un conjunto ortonormal si es un conjunto
ortogonal y cada uno de los vectores v
k
tiene norma igual a 1,
v
k
v
j
= 0, j = k; ||v
1
|| = = ||v
m
|| = 1.
Las propiedades del producto escalar, la norma, la distancia y la ortogonalidad son conocidas por el alumno
para vectores en R
2
y en R
3
. En los espacios R
n
, las propiedades son esencialmente las mismas. Notemos que si
consider asemos dichos conceptos de forma independiente de un sistema de referencia, en cada uno de ellos aparecen
involucrados uno o dos vectores. Algunas de las propiedades del producto escalar pueden obtenerse directamente
del hecho de que el producto escalar de dos vectores puede expresarse como un producto matricial, vector-la por
vector-columna
x y = [x
1
, x
2
, . . . , x
n
]
_

_
y
1
.
.
.
y
n
_

_ = x
T
y = y
T
x = [y
1
, y
2
, . . . , y
n
]
_

_
x
1
.
.
.
x
n
_

_ = y x.
97
Propiedades. Sean x, y R
n
, R.
(1) ||x|| = 0 x = 0.
(2) ||x|| = || ||x||.
(3) Desigualdad triangular: ||x +y|| ||x|| +||y|| , (||x y|| ||x|| +||y||).
(1) Desigualdad de Cauchy-Schwartz: |x y| ||x|| ||y||.
(4) Teorema de Pitagoras:
x y ||x +y||
2
= ||x||
2
+||y||
2
.
El angulo (los angulos) determinado por dos vectores no-nulos x, y R
n
puede caracterizarse (denirse) mediante
la igualdad
x y = ||x|| ||y|| cos().
2. El complemento ortogonal de un subespacio.
Denicion. (El complemento ortogonal de un subespacio) Dado un subespacio vectorial S de R
n
se denomina com-
plemento ortogonal de S al conjunto
S

= {v R
n
: v u , u S} .
Es decir, S

est a formado por todos los vectores que son ortogonales a todos los vectores de S. Por tanto, el com-
plemento ortogonal del subespacio nulo
_

0
_
es R
n
puesto que cualquier vector es ortogonal al vector nulo. Por otra
parte, el complemento ortogonal del espacio total R
n
es el subespacio nulo, puesto que el vector nulo (de R
n
) es el
unico que es ortogonal a todos los vectores de R
n
.
Ejemplos. A la hora de trabajar con el complemento ortogonal de un subespacio es conveniente tener presente c omo se
puede caracterizar, el complemento ortogonal de un subespacio, cuando el subespacio viene dado en forma parametrica
o cuando viene dado en forma implcita. En R
2
, un subespacio vectorial de dimensi on 1 es una recta que pasa por el
origen y su complemento ortogonal sera (como es natural) la recta que pasa por el origen (es un subespacio vectorial)
y es perpendicular a la recta dada. En R
3
, un subespacio vectorial de dimensi on 1 es una recta que pasa por el origen.
Su complemento ortogonal sera el plano que pasa por el origen (es un subespacio vectorial) y es perpendicular a la
recta dada. Un subespacio vectorial de dimensi on 2 es un plano que pasa por el origen. Su complemento ortogonal
sera la recta que pasa por el origen (es un subespacio vectorial) y es perpendicular al plano dado.
(1) Consideremos un subespacio de dimensi on 1 en R
2
, dado en forma parametrica, es decir, una recta que pasa por
el origen de coordenadas, dada por un vector direcci on v
1
. Por ejemplo, para v
1
= [2, 1]
T
S = Gen {v
1
} = {v
1
: R}
_
x
1
= 2
x
2
=
,
su complemento ortogonal estar a formado por los vectores v = [x
1
, x
2
]
T
R
2
que son ortogonales a todos los
vectores de la forma v
1
, R
v S

(v
1
) v = 0, R v
1
v = 0 2x
1
x
2
= 0.
Es decir, el complemento ortogonal S

est a formado por todos los vectores v = [x


1
, x
2
]
T
R
2
cuyas coordenadas
verican la ecuaci on
2x
1
x
2
= 0,
con lo cual S

es un subespacio vectorial (de dimensi on 1) que viene dado en forma implcita y los coecientes
de la ecuaci on implcita son las coordenadas del vector direcci on de S. Si hubieramos considerado otro vector
direcci on de S (que sera un m ultiplo no-nulo de v
1
), habramos obtenido una ecuaci on equivalente.
(2) Si consideramos un subespacio vectorial S de dimensi on 1 en R
n
, es decir una recta que pasa por el origen,
generada por un vector no-nulo v
1
R
n
S = Gen
_

_
v
1
=
_

_
a
1
.
.
.
a
n
_

_
_

_
,
98
su complemento ortogonal estar a formado por los vectores v = [x
1
, . . . , x
n
]
T
R
n
cuyas coordenadas verican
la ecuaci on
v
1
v = 0 a
1
x
1
+ + a
n
x
n
= 0,
con lo cual S

es un subespacio vectorial (de dimensi on n 1) que viene dado mediante una ecuaci on implcita
y los coecientes de dicha ecuaci on son las coordenadas del vector direcci on de S.
Teorema. Dado un subespacio vectorial S de R
n
se verica:
(1) S

es un subespacio vectorial de R
n
.
(2)
_
S

= S.
(3) Se verica la siguiente relacion entre S y S

.
(a) S S

= {0}.
(b) S +S

= R
n
.
Por tanto, todo vector v de R
n
se puede expresar de forma unica como suma
de un vector de S y un vector de S

. (Esto sera consecuencia del teorema de


la proyeccion ortogonal que veremos mas adelante).
(5) Si S = Gen {v
1
, . . . , v
p
}, entonces
v S

v v
1
, . . . , v v
p
.
Ejemplo. Antes hemos obtenido el complemento ortogonal de un subespacio de R
n
de dimensi on 1, que era un
subespacio vectorial de dimensi on n1 (estos subespacios se suelen denominar hiperplanos). Las propiedades anteriores
permiten obtener facilmente el complemento ortogonal de un subespacio, de dimensi on n 1, cuya ecuaci on implcita
es
W a
1
x
1
+ +a
n
x
n
= 0.
Como hemos visto antes,
W = S

, siendo S = Gen
_

_
_

_
a
1
.
.
.
a
n
_

_
_

_
,
tenemos que W

=
_
S

= S. Es decir, de manera inmediata obtenemos, W

, en forma parametrica.
El hecho de expresar el complemento ortogonal de una u otra forma parametrica/implcita dependiendo de como
venga expresado el subespacio vectorial:
S en forma parametrica S

en forma implcita
S en forma implcita S

en forma parametrica
queda reejado con el siguiente Teorema.
Teorema. (Los cuatro subespacios asociados a una matriz) Sea A una matriz real mn. Se verica:
[Col (A)]

= Nul (A
T
), [Nul (A)]

= Col (A
T
)
El espacio Col (A
T
) se suele denominar espacio la de la matriz A.
Notemos que en lo que se reere a las dimensiones de los complementos ortogonales tenemos
dim
_
[Col (A)]

_
= dim
_
Nul (A
T
)
_
= m pivotes de A
T
= mrango (A) = mdim (Col (A)) .
Puesto que cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para
cualquier subespacio vectorial S de R
m
, se verica
dim
_
S

_
= mdim(S).
99
3. Bases ortonormales de un subespacio. Matrices ortogonales.
Proposici on. Si {u
1
, u
2
, . . . , u
r
} es un conjunto de vectores no-nulos ortogonales dos a dos, entonces son linealmente
independientes.
Demostracion.- Si tenemos una combinacion lineal de los vectores dados igual al vector nulo
1u1 + 2u2 + + pup =

0 ()
al multiplicar escalarmente por el vector u1 tenemos
(1u1 + 2u2 + + pup) u1 =

0 u1 = 0.
Desarrollando el primer miembro de la igualdad
1u1 u1 + 2u2 u1 + + pup u1 =

usando la
condicion de
ortogonalidad

=
= 1 ||u1||
2
+ 20 + + p0 = 0

puesto
que u1 = 0

= 1 = 0.
De manera an aloga, al multiplicar escalarmente la igualdad () por un vector
u
k
, k = 1, 2, . . . , p,
se obtiene
10 + 20 + +
k
||u
k
||
2
+ + n0 = 0

puesto
que u
k
= 0


k
= 0.
Por tanto, la unica combinacion lineal que es igual al vector nulo es la combinacion lineal identicamente nula (todos los
coecientes son nulos). Es decir, los vectores dados son linealmente independientes. 2
Proposici on. Sea {u
1
, u
2
, . . . , u
r
} una base ortogonal de un subespacio S de R
n
. Entonces:
Las coordenadas de un vector u S respecto de dicha base vienen dadas por
u u
k
||u
k
||
2
, es decir, se verica que
u =
u u
1
||u
1
||
2
u
1
+ +
u u
r
||u
r
||
2
u
r
.
La expresion anterior se suele denominar desarrollo de Fourier de v respecto a la base {u
1
, u
2
, . . . , u
r
}.
Antes de pasar a estudiar la proyeccion ortogonal de un vector sobre un subespacio, vamos a considerar las
propiedades de las matrices cuyas columnas son ortonormales. En particular, vamos a considerar las matrices cuadradas
cuyas columnas son ortonormales. Cuando se tiene un conjunto ortogonal de vectores no-nulos y se normalizan (se
divide cada uno por su norma), obtenemos un conjunto ortonormal de vectores que formaran una base ortonormal del
subespacio vectorial que generan. En terminos de computacion numerica, las matrices cuyas columnas son ortonormales
juegan un papel importante por ser matrices que transmiten los errores de redondeo de manera controlada.
Proposici on. Sea U = [u
1
, . . . , u
n
] una matriz real mn.
(1) U tiene columnas ortonormales U
T
U = I.
(2) Si U tiene columnas ortonormales, la transformaci on lineal asociada
U : x R
n
y = Ux R
m
conserva angulos y distancias, es decir
(a) ||Ux|| = ||x|| , x R
n
.
(b) (Ux) (Uy) = x y, x, y R
n
y en particular,
(c) Ux Uy x y.
Un caso particularmente importante lo constituyen las matrices cuadradas con columnas ortonormales.
Denicion. (Matriz ortogonal) Se denomina matriz ortogonal a toda matriz Q real cuadrada no-singular cuya
inversa coincide con su traspuesta, Q
1
= Q
T
.
100
Proposici on. Se verica:
(1) Si Q es ortogonal =det(Q) = 1.
(2) Q es ortogonal Q
T
es ortogonal.
(3) Si Q
1
y Q
2
son ortogonales, entonces Q
1
Q
2
es ortogonal.
Proposici on. Sea Q una matriz real cuadrada n n. Son equivalentes:
(1) Q es una matriz ortogonal.
(2) Las n columnas de Q son ortonormales (y por tanto forman una base ortonormal de R
n
).
(3) Las n las de Q son ortonormales (y por tanto forman una base ortonormal de R
n
).
4. Proyeccion ortogonal sobre un subespacio. El teorema de la mejor
aproximaci on.
Si consideramos el subespacio vectorial S, de dimensi on uno (una recta), generado por un vector, u
1
, no-nulo,
S = Gen {u
1
}, la proyeccion ortogonal de un vector v R
n
sobre S sera el vector u = u
1
S que verica que
v u = v u
1
es ortogonal a S, es decir, tenemos que determinar con la condicion que v u
1
sea ortogonal a u
1
,
(v u
1
) u
1
= v u
1
||u
1
||
2
= 0 =
vu1
||u1||
2

= u = proy
S
(v) =
vu1
||u1||
2
u
1
.
Para un subespacio de dimensi on arbitraria puede darse una expresion de la proyeccion ortogonal de un vector sobre
dicho subespacio cuando disponemos de una base ortogonal de dicho subespacio. Considerando una base ortonormal
puede darse una expresion c omoda de la matriz de la proyeccion ortogonal.
Teorema (de la descomposici on ortogonal). Sea S un subespacio vectorial de R
n
. Dado cualquier vector v
R
n
existe un unico vector u S (llamado proyeccion ortogonal de v sobre S) tal que v u S

. De hecho, si
{u
1
, u
2
, . . . , u
r
} es una base ortogonal de S, entonces la proyeccion ortogonal de v sobre S es
u := proy
S
(v) =
v u
1
||u
1
||
2
u
1
+ +
v u
r
||u
r
||
2
u
r
,
y la proyeccion ortogonal de v sobre S

es
w = v u.
Notemos que:
Cada sumando de la expresion
v u
1
||u
1
||
2
u
1
+ +
v u
r
||u
r
||
2
u
r
nos da la proyeccion ortogonal del vector v sobre el subespacio generado por el correspondiente vector u
k
.
El vector u = proy
S
(v) verica que ||u||
2
||v||
2
.
Corolario. (Matriz de una proyeccion ortogonal) Sea S un subespacio vectorial de R
n
.
(a) Si {u
1
, u
2
, . . . , u
r
} es una base ortonormal de S, la proyeci on ortogonal de un vector v R
n
sobre S es
u := proy
S
(v) = (v u
1
) u
1
+ + (v u
r
) u
r
.
101
(b) Siendo U una matriz cuyas columnas forman una base ortonormal de S, la matriz de la proyeccion ortogonal
sobre S es P
S
= UU
T
, es decir
proy
S
(v) = UU
T
v, v R
n
.
Aunque puedan considerarse distintas matrices U como en el enunciado, la matriz P
S
= UU
T
que representa
a la proyeccion ortogonal, respecto a la base canonica, es unica. Las propiedades caractersticas de las matrices de
proyeccion ortogonal son
P
2
S
= P
S
,
_
UU
T
_
2
= U(U
T
U)U
T
= UIU
T
= UU
T
, y
P
S
es simetrica,
_
UU
T
_
T
= (U
T
)
T
U
T
= UU
T
.
Teorema (de la mejor aproximaci on). Sea S un subespacio vectorial de R
n
y consideremos un vector x R
n
y
un vector y S. Son equivalentes:

O
x
y
w
S
S

(a) y es la proyeccion ortogonal de x sobre S,


es decir,
y S, x y S

.
(b) y es la mejor aproximacion de x desde S,
es decir,
y S, ||x y|| ||x w|| para todo w S.
Sea y = proy
S
(x) y sea w S. Puesto que
xw = (xy)+(yw), xy S

, yw S,
aplicando el Teorema de Pit agoras tenemos
||x w||
2
= ||x y||
2
+||y w||
2
||x y||
2
.
5. El metodo de Gram-Schmidt.
En el Tema 4 hemos visto c omo obtener una base de un subespacio vectorial a partir de un conjunto de vectores
que genera el subespacio vectorial. En los epgrafes anteriores hemos visto que el c alculo de las coordenadas de un
vector respecto de una base ortogonal es muy simple (desarrollo de Fourier) y que estas permiten dar la expresion
de la proyeccion ortogonal sobre el subespacio que generan dichos vectores. El metodo de ortogonalizaci on de Gram-
Schmidt, que vamos a describir, permite construir de manera progresiva una base ortogonal de un subespacio vectorial
a partir de una base de dicho subespacio e incluso de un conjunto de vectores que genere el subespacio.
Partiendo de una base {v
1
, v
2
, . . . , v
p
} de un subespacio S, el metodo consiste en generar uno a uno vectores que
son ortogonales a los construidos. Denotamos por S
1
, S
2
, . . . , los subespacios vectoriales denidos por
S
1
= Gen {v
1
} , S
2
= Gen {v
1
, v
2
} , . . . , S
p
= Gen {v
1
, v
2
, . . . , v
p
} = S.
El metodo de Gram-Schmidt consiste en generar los vectores:
u
1
= v
1
S
1
,
u
2
= v
2
proy
S1
(v
2
) S
2
, es decir, u
2
es el unico vector de la forma u
2
= v
2
+u
1
que es ortogonal a u
1
,
u
3
= v
3
proy
S2
(v
3
) S
3
, es decir, u
3
es el unico vector de la forma u
3
= v
3
+ u
1
+ u
2
que es ortogonal a
u
1
y a u
2
,
. . .
Notemos que, puesto que los vectores {v
1
, v
2
, . . . , v
p
} son linealmente independientes, necesariamente los subespacios
S
1
S
2
S
p
= S
102
son todos distintos (dim(S
k
) = k, k = 1, 2, . . . , p), los vectores u
1
, u
2
, . . . , u
p
son todos no-nulos y linealmente inde-
pendientes y se verica que
S
1
= Gen {v
1
} = Gen {u
1
},
S
2
= Gen {v
1
, v
2
} = Gen {u
1
, u
2
} ,
S
3
= Gen {v
1
, v
2
, v
3
} = Gen {u
1
, u
2
, v
3
} = Gen {u
1
, u
2
, u
3
} ,
.
.
.
.
.
.
S
p
= Gen {v
1
, . . . , v
p
} = . . . = Gen {u
1
, , u
p
} .
Teorema (Metodo de ortogonalizacion de Gram-Schmidt). Consideremos una base {v
1
, v
2
, . . . , v
p
} de un
subespacio vectorial S de R
n
. Entonces, los siguientes vectores est an bien denidos
u
1
= v
1
u
2
= v
2

v
2
u
1
||u
1
||
2
u
1
u
3
= v
3

v
3
u
1
||u
1
||
2
u
1

v
3
u
2
||u
2
||
2
u
2
.
.
.
u
p
= v
p

v
p
u
1
||u
1
||
2
u
1

v
p
u
p1
||u
p1
||
2
u
p1
y son no-nulos y ortogonales dos a dos.
(a) {u
1
, u
2
, . . . , u
p
} es una base ortogonal de S = Gen {v
1
, v
2
, . . . , v
p
}.
(b) Para cada k = 1, . . . , p, {u
1
, u
2
, . . . , u
k
} es una base ortogonal de S
k
= Gen {v
1
, v
2
, . . . , v
k
}.
Observaciones.
(a) Si el objetivo es obtener una base ortonormal de S, una vez que se ha obtenido una base ortogonal basta normalizar
los vectores obtenidos.
(b) En cada paso del metodo de Gram-Schmidt que acabamos de describir podramos multiplicar (o dividir) el vector
obtenido por un coeciente no-nulo y seguir los c alculos con dicho vector.
(c) Si el vector v
k
es combinaci on lineal de los anteriores, v
1
, v
2
, ..., v
k1
, al aplicar el metodo de Gram-Schmidt
obtenemos u
k
= 0. Es decir, el metodo de Gram-Schmidt devuelve el vector nulo cuando se aplica a un conjunto
de vectores linealmente dependientes.
Ejercicio resuelto
Consideremos la matriz
A =
_

_
1 0 b a
0 1 a b
1 0 b a
0 1 a b
_

_
, a, b R.
Si a = 0 y b = 1, la matriz B =
1
2
A es la matriz de la proyeccion ortogonal sobre un cierto subespacio S R
4
.
(a) Encontrar una base ortonormal del subespacio S.
(b) Calcular la proyeccion ortogonal del vector (1, 1, 1, 1)
T
sobre S

.
Si a = 0 y b = 1 la matriz B es
B =
1
2
A =
1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
.
(a) Nos dicen que B es la matriz P
S
de la proyeccion ortogonal sobre un cierto subespacio S R
4
, es decir, que la
proyeccion ortogonal de cualquier vector x R
4
sobre S es Bx. Los vectores v que pertenecen a S son aquellos que
coinciden con su proyeccion ortogonal sobre S, es decir, los que verican Bv = v. Resolviendo este sistema
1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
_

_
v
1
v
2
v
3
v
4
_

_
=
_

_
v
1
v
2
v
3
v
4
_

1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
_

_
v
1
v
2
v
3
v
4
_

_
=
_

_
0
0
0
0
_

_
v
1
v
3
= 0,
v
2
v
4
= 0,
103
obtenemos
v =
_

_
1
0
1
0
_

_
+
_

_
0
1
0
1
_

_
, , R S = Gen
_

_
u
1
=
_

_
1
0
1
0
_

_
, u
2
=
_

_
0
1
0
1
_

_
_

_
.
Como la base encontrada ya es ortogonal (u
1
u
2
= 0), basta con dividir por la norma de cada vector para encontrar
una base ortonormal de S:
_

_
1

2
_

_
1
0
1
0
_

_
,
1

2
_

_
0
1
0
1
_

_
_

_
.
(b) Para calcular la proyeccion ortogonal del vector w = (1, 1, 1, 1)
T
sobre S

, usamos que la matriz de la proyeccion


ortogonal sobre S

, P
S
, vale
P
S
= I P
S
=
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_

1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
=
1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
con lo que
Proy
S
w = P
S
w =
1
2
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
_

_
1
1
1
1
_

_
=
_

_
0
0
0
0
_

_
,
resultado logico ya que w S, pues verica sus ecuaciones implcitas (halladas en el apartado anterior), x
1
x
3
= 0,
x
2
x
4
= 0 (en particular, podemos ver que w = u
1
+u
2
).
Ejercicio resuelto
Dados el subespacio E de R
4
y la matriz A
E = Gen
_

_
u
1
=
_

_
1
0
0
1
_

_
, u
2
=
_

_
0
1
0
2
_

_
, u
3
=
_

_
0
0
1
1
_

_
_

_
, A =
_

_
a
1
b
1
a
2
2
a
3
b
2
2 b
3
_

_
.
(a) Encontrar la matriz de la proyeccion ortogonal sobre E.
(b) Calcular A sabiendo que Col(A) est a contenido en E

.
(a) Para calcular la matriz de la proyeccion ortogonal P
E
sobre un subespacio E necesitamos una base ortonormal
de E. Pero teniendo en cuenta que P
E
+ P
E
= I, puede ser mas facil calcular primero P
E
a partir de una base
ortonormal de E

. Por tanto, lo mas conveniente es trabajar con el espacio que tenga menor dimensi on entre E y E

.
Por un lado, dim(E) = 3 pues los tres vectores que lo generan son linealmente independientes
_

_
1 0 0
0 1 0
0 0 1
1 2 1
_

_
1 0 0
0 1 0
0 0 1
0 2 1
_

_
1 0 0
0 1 0
0 0 1
0 0 1
_

_
1 0 0
0 1 0
0 0 1
0 0 0
_

_
.
De esta forma, al estar en R
4
, dim(E

) = 4dim(E) = 43 = 1, con lo que es trivial encontrar una base ortonormal


de E

y muy tedioso hallarla para E.


Para trabajar con E

podemos escribir sus ecuaciones implcitas (a partir de un conjunto generador de E; si se


trata de una base de E, entonces tenemos garanta de que no nos sobra ninguna ecuacion en ese conjunto de ecuaciones
implcitas):
E


_
_
_
x
1
+x
4
= 0
x
2
+ 2x
4
= 0
x
3
+x
4
= 0

_
x
4
R
x
1
= x
4
x
2
= 2x
4
x
3
= x
4
E

= Gen
_

_
_
_
_
_
1
2
1
1
_
_
_
_
_

_
.
Otra forma de encontrar una base de E

es a partir de las ecuaciones implcitas de E, y estas son faciles de calcular


104
(repetimos la primera eliminacion que hicimos para ver la dimensi on de E, a nadiendo una cuarta columna):
_

_
1 0 0 x
1
0 1 0 x
2
0 0 1 x
3
1 2 1 x
4
_

_
1 0 0 x
1
0 1 0 x
2
0 0 1 x
3
0 2 1 x
4
x
1
_

_
1 0 0 x
1
0 1 0 x
2
0 0 1 x
3
0 0 1 x
4
x
1
2x
2
_

_
1 0 0 x
1
0 1 0 x
2
0 0 1 x
3
0 0 0 x
4
x
1
2x
2
x
3
_

_
,
de donde deducimos que x
1
+ 2x
2
+ x
3
x
4
= 0 es una ecuaci on implcita de E (es recomendable emplear unos
segundos en comprobar que todos los vectores que generan E satisfacen todas las ecuaciones implcitas obtenidas;
en nuestro caso, que los tres vectores verican la ecuaci on). Observemos que obtenemos una sola ecuaci on implcita
pues E tiene dimensi on 3 y es un subespacio de R
4
. A partir de dicha ecuaci on implcita de E deducimos que
E

= Gen{(1, 2, 1, 1)
T
}.
La ventaja de trabajar con E

es que la base obtenida ya es ortogonal (al tener un unico vector) y, por tanto, una
base ortonormal es B
E
= {v
1
=
1

7
(1, 2, 1, 1)
T
}. Construyendo la matriz U = [v
1
] podemos ya calcular la matriz
de la proyeccion ortogonal sobre E

que viene dada por


P
E
= UU
T
=
1

7
_

_
1
2
1
1
_

_
1

7
_
1 2 1 1

=
1
7
_

_
1 2 1 1
2 4 2 2
1 2 1 1
1 2 1 1
_

_
.
Es muy facil obtener entonces la matriz de la proyeccion ortogonal sobre E
P
E
= I P
E
=
1
7
_

_
6 2 1 1
2 3 2 2
1 2 6 1
1 2 1 6
_

_
.
Para estar seguros de que las matrices encontradas son las correctas es recomendable comprobar que, al proyectar cada
vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector de la base del subespacio
ortogonal obtenemos el vector nulo. Ademas, hay dos comprobaciones inmediatas que si no las satisface una matriz
de proyeccion seguro que est a mal calculada: es siempre una matriz cuadrada, en este caso al estar el subespacio en
R
4
es 4 4 y debe ser simetrica al ser (UU
T
)
T
= (U
T
)
T
U
T
= UU
T
.
Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los
c alculos) para calcular P
E
consiste en buscar una base de E, {z
1
, z
2
, z
3
}, aplicarle el metodo de GramSchmidt para
conseguir una base ortogonal, {t
1
, t
2
, t
3
}, dividir por las normas de los vectores para conseguir una base ortonormal y
construir la matriz
U =
_
t
1
||t
1
||

t
2
||t
2
||

t
3
||t
3
||
_
,
con lo que, nalmente, P
E
= UU
T
.
(b) Si Col(A) est a contenido en E

, quiere decir que cada columna de A se puede escribir como combinaci on lineal
de los vectores de cualquier base de E

. Como una base de E

es {(1, 2, 1, 1)
T
}, debe vericarse
_

_
a
1
a
2
a
3
2
_

_
=
_

_
1
2
1
1
_

_
= 2,
a
1
= 2,
a
2
= 4,
a
3
= 2,
;
_

_
b
1
2
b
2
b
3
_

_
=
_

_
1
2
1
1
_

_
= 1,
b
1
= 1,
b
2
= 1,
b
3
= 1,
con lo que la matriz A buscada resulta ser A =
_

_
a
1
b
1
a
2
2
a
3
b
2
2 b
3
_

_
=
_

_
2 1
4 2
2 1
2 1
_

_
.
Un planteamiento equivalente consiste en exigir que la matriz siguiente tenga rango uno
r
_

_
1 a
1
b
1
2 a
2
2
1 a
3
b
2
1 2 b
3
_

_
= r
_

_
1 a
1
b
1
0 a
2
2a
1
2 2b
1
0 a
3
a
1
b
2
b
1
0 a
1
2 b
3
+b
1
_

_
= 1
_

_
a
2
2a
1
= 0,
a
3
a
1
= 0,
a
1
2 = 0,
2 2b
1
= 0,
b
2
b
1
= 0,
b
3
+b
1
= 0,

_
a
1
= 2,
a
2
= 4,
a
3
= 2,
b
1
= 1,
b
2
= 1,
b
3
= 1.
105
Otra posibilidad es exigir que las columnas de A veriquen las tres ecuaciones implcitas de E

obtenidas en el primer
apartado.
Ejercicio resuelto
Consideremos el subespacio E de R
3
denido mediante x z = 0 y la aplicacion lineal f : R
3
R
3
representada
(en la base canonica de R
3
) por la matriz
A =
_
_
3 2 1
0 1 2
2 1 0
_
_
.
(a) Hallar la proyeccion ortogonal del vector (1, 1, 1)
T
sobre el subespacio f(E).
(b) Encontrar la matriz de la proyeccion ortogonal sobre el subespacio [f(E)]

.
(a) A partir de las ecuaciones implcitas de E, x z = 0, es inmediato deducir (resolviendo la ecuaci on que dene a
E) que:
E = Gen
_
_
_
v
1
=
_
_
1
0
1
_
_
, v
2
=
_
_
0
1
0
_
_
_
_
_
.
Si x es un vector de E, x E, entonces se podra escribir como x =
1
v
1
+
2
v
2
y su transformado, mediante la
transformaci on lineal f, sera f(x) = f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) es decir, que si E = Gen {v
1
, v
2
} entonces,
f(E) = Gen {f(v
1
), f(v
2
)}. Calculamos pues
f(v
1
) = Av
1
=
_
_
3 2 1
0 1 2
2 1 0
_
_
_
_
1
0
1
_
_
=
_
_
4
2
2
_
_
,
f(v
2
) = Av
2
=
_
_
3 2 1
0 1 2
2 1 0
_
_
_
_
0
1
0
_
_
=
_
_
2
1
1
_
_
,
con lo que f(E) = Gen {(4, 2, 2)
T
, (2, 1, 1)
T
} = Gen {w = (2, 1, 1)
T
}.
Puesto que dim(f(E)) = 1 y se trata de un subespacio de R
3
, entonces dim([f(E)]

) = 2, con lo que es mas facil


proyectar sobre f(E) que sobre [f(E)]

.
Cuidado, no hay que confundir [f(E)]

con f(E

). Este ultimo viene generado por f[(1, 0, 1)


T
] = (2, 2, 2)
T
, ya
que E

= Gen {(1, 0, 1)
T
}, mientras que una ecuaci on implcita que dene [f(E)]

es 2x + y + z = 0 y, por tanto,
resolviendo esta ecuaci on, [f(E)]

= Gen {u
1
= (1, 2, 0)
T
, u
2
= (0, 1, 1)
T
}.
Para proyectar sobre un subespacio necesitamos conocer una base ortogonal suya. Puesto que una base de f(E) es
w = (2, 1, 1)
T
(que es ortogonal al estar formada por un unico vector) ya podemos proyectar el vector u = (1, 1, 1)
T
sobre f(E)
Proy
f(E)
u =
u w
w w
w =
0
6
w =
_
_
0
0
0
_
_
.
Este resultado indica que el vector u que hemos proyectado sobre f(E) pertenece a [f(E)]

.
Si preferimos proyectar mediante la matriz de la proyeccion P
f(E)
, la calculamos construyendo U = (w/||w||) de
forma que
P
f(E)
= UU
T
=

6
6
_
_
2
1
1
_
_

6
6
_
2 1 1
_
=
1
6
_
_
4 2 2
2 1 1
2 1 1
_
_
.
Conviene emplear unos segundos en comprobar que la matriz P
f(E)
calculada es correcta (hay dos comprobaciones
inmediatas que si no las satisface seguro que est a mal: es siempre una matriz cuadrada, en este caso al estar el
subespacio en R
3
es 3 3; ademas debe ser simetrica al ser (UU
T
)
T
= (U
T
)
T
U
T
= UU
T
). Para tener garanta de que
est a bien calculada, vemos que P
f(E)
w = w (como la proyeccion de cualquier vector de f(E) sobre f(E) es el propio
vector, basta con comprobarlo con todos los vectores de su base) y que P
f(E)
u
1
= P
f(E)
u
2
= 0 (como la proyeccion de
cualquier vector de [f(E)]

sobre f(E) es el vector nulo, lo vericamos con todos los vectores de la base de [f(E)]

).
De esta forma
Proy
f(E)
u = P
f(E)
u =
1
6
_
_
4 2 2
2 1 1
2 1 1
_
_
_
_
1
1
1
_
_
=
_
_
0
0
0
_
_
.
106
(b) Por la consideracion de las dimensiones f(E) y de [f(E)]

, la manera mas facil de calcular P


[f(E)]
es teniendo
en cuenta que P
f(E)
+P
[f(E)]
= I. Puesto que ya hemos calculado P
f(E)
, es inmediato que
P
[f(E)]
= I P
f(E)
=
_
_
1 0 0
0 1 0
0 0 1
_
_

1
6
_
_
4 2 2
2 1 1
2 1 1
_
_
=
1
6
_
_
2 2 2
2 5 1
2 1 5
_
_
.
Veamos que si no recurrimos al subespacio ortogonal, es decir, si trabajamos directamente con [f(E)]

los c alculos
seran mas engorrosos. Para calcular la matriz de la proyeccion necesitamos una base ortonormal del subespacio. Como
una ecuaci on implcita de [f(E)]

es 2x +y +z = 0, resolviendo esta ecuaci on, obtenemos una base B


[f(E)]
= {u
1
=
(1, 2, 0)
T
, u
2
= (0, 1, 1)
T
}. Para obtener una base ortogonal vamos a aplicar el metodo de GramSchmidt a esos
dos vectores
w
1
= u
1
=
_
_
1
2
0
_
_
; w
2
= u
2

u
2
w
1
w
1
w
1
w
1
=
_
_
0
1
1
_
_

2
5
_
_
1
2
0
_
_
=
_
_
2/5
1/5
1
_
_
.
Conviene comprobar, para detectar posibles errores, que w
1
y w
2
son ortogonales, es decir, que w
1
w
2
= 0.
Por tanto, una base ortogonal de [f(E)]

viene dada por {w


1
, w
2
}. Por comodidad, en vez de w
2
podemos tomar
un m ultiplo suyo para evitar la aparici on de fracciones, obteniendo la base ortogonal
{w
1
= (1, 2, 0)
T
, w

2
= (2, 1, 5)
T
}.
Dividiendo por su norma conseguimos una base ortonormal de [f(E)]

, B
[f(E)]
=
_
w1
||w1||
,
w

2
||w

2
||
_
, a partir de la cual
construimos la matriz U =
_
w1
||w1||

2
||w

2
||
_
con lo que
P
[f(E)]
= UU
T
=
_
_
_

5
5

30
15

5
5

30
30
0

30
6
_
_
_
_

5
5

2

5
5
0

30
15

30
30

30
6
_
=
1
6
_
_
2 2 2
2 5 1
2 1 5
_
_
.
Observemos que una alternativa a aplicar el metodo de Gram-Schmidt es buscar con cuidado una base ortogonal
de [f(E)]

. Como su ecuaci on implcita es 2x +y +z = 0, elegimos un primer vector cualquiera (cuanto mas sencillo
mejor, pues en la solucion aparecen dos par ametros) que verique esa ecuaci on, por ejemplo, z
1
= (1, 2, 0)
T
. Ahora
un segundo vector, z
2
= (a, b, c)
T
, lo determinamos exigiendo que verique la ecuaci on anterior y que sea perpendicular
a z
1
, es decir, debe vericar 2a + b + c = 0, a 2b = 0. Elegimos un vector cualquiera (en la solucion aparece un
par ametro) que verique este sistema, por ejemplo, z
2
= (2, 1, 5)
T
. La base ortogonal encontrada es {z
1
, z
2
}.
Ejercicio resuelto
Hallar la proyeccion ortogonal del vector (3, 4, 5)
T
sobre el subespacio f(E) siendo f la aplicacion lineal dada
por la matriz
A =
_
_
1 0 1
1 1 0
0 1 1
_
_
y E el subespacio de R
3
dado por x y z = 0.
A partir de las ecuaciones implcitas de E, x y z = 0, es inmediato deducir (resolviendo la ecuaci on que dene a
E) que:
E = Gen
_
_
_
v
1
=
_
_
1
1
0
_
_
, v
2
=
_
_
1
0
1
_
_
_
_
_
.
Si x es un vector de E, x E, entonces se podra escribir como x =
1
v
1
+
2
v
2
y su transformado, mediante la
transformaci on lineal f, sera f(x) = f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) es decir, que si E = Gen {v
1
, v
2
} entonces,
f(E) = Gen {f(v
1
), f(v
2
)}. Calculamos pues
f(v
1
) = Av
1
=
_
_
1 0 1
1 1 0
0 1 1
_
_
_
_
1
1
0
_
_
=
_
_
1
0
1
_
_
,
f(v
2
) = Av
2
=
_
_
1 0 1
1 1 0
0 1 1
_
_
_
_
1
0
1
_
_
=
_
_
2
1
1
_
_
.
107
Puesto que dim(f(E)) = 2 (pues f(v
1
) y f(v
2
) son linealmente independientes) y estamos en R
3
entonces dim([f(E)]

) =
1, con lo que es mas facil proyectar sobre [f(E)]

. Cuidado, no hay que confundir [f(E)]

con f(E

). Este ultimo
viene generado por f[(1, 1, 1)
T
] = (0, 2, 0)
T
, ya que E

= Gen {(1, 1, 1)
T
}.
Si hallamos las ecuaciones implcitas de f(E) (debe ser una ecuaci on, pues es un subespacio de dimensi on 2 en R
3
)
_
_
1 2 x
0 1 y
1 1 z
_
_

_
_
1 2 x
0 1 y
0 3 z x
_
_

_
_
1 2 x
0 1 y
0 0 z x 3y
_
_
f(E) x + 3y z = 0,
podemos deducir inmediatamente que [f(E)]

= Gen {w = (1, 3, 1)
T
}. Observemos que, por estar en R
3
, podemos
encontrar un vector de [f(E)]

calculando el producto vectorial de f(v


1
) con f(v
2
), f(v
1
) f(v
2
) = (1, 3 1)
T
.
Puesto que w es una base ortogonal de [f(E)]

, ya podemos proyectar ortogonalmente


Proy
[f(E)]
u =
u w
w w
w =
14
11
_
_
1
3
1
_
_
.
De esta forma,
Proy
f(E)
u = u Proy
[f(E)]
u =
_
_
3
4
5
_
_
+
14
11
_
_
1
3
1
_
_
=
1
11
_
_
47
2
41
_
_
.
Mencionemos otros caminos que podamos haber seguido, aunque sean menos aconsejables pues son mas largos.
Conocida una base ortogonal de f(E), {w
1
, w
2
} (para lo que tenemos que aplicar el metodo de GramSchmidt
a f(v
1
), f(v
2
) o bien, buscar con cuidado, a partir de la ecuaci on implcita de f(E), x + 3y z = 0, dos vectores
ortogonales) podemos aplicar
Proy
f(E)
u =
u w
1
w
1
w
1
w
1
+
u w
2
w
2
w
2
w
2
.
Si preferimos proyectar sobre f(E) usando la matriz de la proyeccion, lo mas facil es calcular mediante una base
ortonormal de [f(E)]

(como solo tiene un vector, w, basta con dividir por su norma, w/|w|) la matriz P
[f(E)]
y
luego P
f(E)
= I P
[f(E)]
con lo que Proy
f(E)
u = P
f(E)
u. Notemos que si pretendemos calcular la matriz P
f(E)
directamente, necesitamos una base ortonormal de f(E) por lo que tenemos que aplicar el metodo de GramSchmidt
a f(v
1
), f(v
2
) o bien, buscaremos con cuidado, a partir de la ecuaci on implcita de f(E), x + 3y z = 0, dos vectores
ortogonales.
Ejercicio resuelto
Considera el siguiente subespacio de R
4
:
F x
1
+x
3
+x
4
= 0.
(a) Determina las matrices de la proyeccion ortogonal sobre F y sobre F

.
(b) Sea v = [5 3 4 6]
T
. Halla unos vectores u
1
F y u
2
F

tales que v = u
1
+u
2
.
(a) Para calcular las matrices de la proyeccion ortogonal sobre F, P
F
, y sobre F

, P
F
, lo mas conveniente es trabajar
con el espacio de menor dimensi on. Por un lado, dim(F) = 3 pues F R
4
y est a denido por una ecuaci on implcita.
De esta forma, dim(F

) = 4 dim(F) = 4 3 = 1. Con lo que es trivial encontrar una base ortonormal de F

y muy
muy tedioso hallarla para F.
Como F x
1
+x
2
+x
4
= 0 entonces
F

= Gen
_

_
_
_
_
_
1
0
1
1
_
_
_
_
_

_
= Gen
_

_
_
_
_
_
1/

3
0
1/

3
1/

3
_
_
_
_
_

_
.
Usando esta base ortonormal, la matriz de la proyeccion ortogonal sobre F

viene dada por


P
F
=
_
_
_
_
1/

3
0
1/

3
1/

3
_
_
_
_
_
1/

3 0 1/

3 1/

3
_
=
_

_
1/3 0 1/3 1/3
0 0 0 0
1/3 0 1/3 1/3
1/3 0 1/3 1/3
_

_
=
1
3
_

_
1 0 1 1
0 0 0 0
1 0 1 1
1 0 1 1
_

_
.
Es muy facil obtener entonces la matriz de la proyeccion ortogonal sobre F
P
F
= I P
F
=
_

_
2/3 0 1/3 1/3
0 1 0 0
1/3 0 2/3 1/3
1/3 0 1/3 2/3
_

_
=
1
3
_

_
2 0 1 1
0 3 0 0
1 0 2 1
1 0 1 2
_

_
.
108
Para estar seguros de que las matrices encontradas son correctas es recomendable comprobar que, al proyectar cada
vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector del subespacio ortogonal
obtenemos el vector nulo.
Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los
c alculos) para calcular P
F
consiste en buscar una base de F, {z
1
, z
2
, z
3
}, aplicarle el metodo de GramSchmidt para
conseguir una base ortogonal, {t
1
, t
2
, t
3
}, dividir por las normas de los vectores para conseguir una base ortonormal y
construir la matriz
U =
_
t
1
||t
1
||

t
2
||t
2
||

t
3
||t
3
||
_
,
con lo que, nalmente, P
F
= UU
T
.
(b) Dado el vector v, pedirnos unos vectores u
1
F y u
2
F

tales que v = u
1
+u
2
, es demandarnos las proyecciones
ortogonales de v sobre F y F

:
v = u
1
+ u
2
= Proy
F
v +Proy
F
v.
Estas proyecciones las calculamos facilmente
u
1
= P
F
v =
1
3
_

_
2 0 1 1
0 3 0 0
1 0 2 1
1 0 1 2
_

_
_
_
_
_
5
3
4
6
_
_
_
_
=
_
_
_
_
4
3
3
7
_
_
_
_
; u
2
= Proy
F
v =
v s
1
s
1
s
1
s
1
=
3
3
s
1
=
_
_
_
_
1
0
1
1
_
_
_
_
.
Obviamente, podemos calcular primero Proy
F
v o Proy
F
v y despues encontrar el otro vector aplicando que v =
Proy
F
v +Proy
F
v.
Ejercicio resuelto
Siendo R, consideremos el subespacio H x
1
+x
2
+ 4 x
3
= 0 de R
3
y los vectores
v
1
=
_
_
1
1
2
_
_
y v
2
=
_
_
1
0
2
_
_
.
Determina para que la proyeccion ortogonal de v
1
sobre H sea perpendicular a v
2
.
Nos piden que hallemos exigiendo que Proy
H
v
1
v
2
= 0. Necesitamos pues calcular la proyeccion ortogonal de v
1
sobre el subespacio H, Proy
H
v
1
. Como dim(H) = 2 y H R
3
, entonces dim(H

) = 1, con lo que es mas sencillo


calcular la proyeccion sobre H

= Gen{u = (, 1, 4)
T
}:
Proy
H
v
1
=
v
1
u
u u
u =
9 + 1
17
2
+ 1
_
_

1
4
_
_
=
1
17
2
+ 1
_
_
9
2
+
9 + 1
36
2
+ 4
_
_
.
As,
Proy
H
v
1
= v
1
Proy
H
v
1
=
1
17
2
+ 1
_
_
8
2
+ 1
17
2
9
2
2
4 + 2
_
_
,
con lo que podemos hallar los valores de pedidos exigiendo
Proy
H
v
1
v
2
=
1
17
2
+ 1
_
_
8
2
+ 1
17
2
9
2
2
4 + 2
_
_

_
_
1
0
2
_
_
= 0 4
2
9 + 5 = 0 = 1,
5
4
.
Vamos a comentar un procedimiento alternativo y menos engorroso que el anterior. Como H

= Gen{u}, entonces
Proy
H
v
1
= ku siendo k un n umero que desconocemos. Con esto
Proy
H
v
1
= v
1
Proy
H
v
1
= v
1
ku =
_
_
1 k
1 k
2 4k
_
_
,
y como Proy
H
v
1
H debe vericar su ecuaci on implcita, lo que nos proporciona la siguiente condicion para k y :
(1 k) + (1 k) + 4(2 4k) = 0 17k
2
9 +k 1 = 0. (7)
Esta ecuaci on junto con la que obtenemos al exigir
Proy
H
v
1
v
2
= 0
_
_
1 k
1 k
2 4k
_
_

_
_
1
0
2
_
_
= 5 9k = 0,
109
forma un sistema de dos ecuaciones con dos inc ognitas
17k
2
9 +k 1 = 0
9k = 5
_
que podemos resolver despejando k de la segunda ecuaci on, k = 5/9 (notemos que no puede anularse porque la
segunda ecuaci on sera incompatible, 0 = 5) y sustituyendo en la primera con lo que llegamos a la misma ecuaci on de
segundo grado para
4
2
9 + 5 = 0 = 1,
5
4
.
Ejercicio resuelto
Dado el subespacio
E = Gen{(a, 0, 0, 0)
T
, (a, a, b, 0)
T
, (a, b, a, 1)
T
}, a, b R.
(a) Hallar una base ortonormal del subespacio E seg un los valores de los par ametros a y b.
(b) Para a = 0, hallar la matriz de la proyeccion ortogonal sobre E, seg un los valores de b.
(c) Dado el subespacio F
_
_
_
x
1
= 0,
5x
1
+x
2
+ 3x
3
= 0,
2x
1
+ 3x
2
x
3
+x
4
= 0,
determinar los valores de a y b para que F sea
ortogonal a E, F = E

.
(a) Como nos piden una base ortonormal, primero buscamos una base de E, luego encontramos una base ortogonal
aplicando el metodo de GramSchmidt y, nalmente, dividiendo por la norma de cada vector, una base ortonormal.
Al darnos un conjunto generador de E, para encontrar una base debemos estudiar que vectores son linealmente
independientes. As, para a = 0 obtenemos
_
_
_
_
a a a
0 a b
0 b a
0 0 1
_
_
_
_
F
3

b
a
F
2
-
_
_
_
_
a a a
0 a b
0 0 a
b
2
a
0 0 1
_
_
_
_

_
_
_
_
a a a
0 a b
0 0 1
0 0 0
_
_
_
_
es decir, los tres vectores son linealmente independientes para cualquier valor de b, con lo que una base de E, en este
caso, es {(a, 0, 0, 0)
T
, (a, a, b, 0)
T
, (a, b, a, 1)
T
}.
Observemos que si lo preferimos, en el primer paso del proceso de eliminacion podemos dividir por a = 0 las
tres primeras las y trabajar con la matriz
_
_
_
_
1 1 1
0 1 b/a
0 b/a 1
0 0 1
_
_
_
_
. Podemos entonces, si queremos, tomar como base
{(1, 0, 0, 0)
T
, (1, 1, b/a, 0)
T
, (1, b/a, 1, 1)
T
}.
Cuando a = 0, formamos, con los vectores que generan E, la siguiente matriz
_
_
_
_
0 0 0
0 0 b
0 b 0
0 0 1
_
_
_
_
, con lo que es inmediato
obtener que {(0, 0, b, 0)
T
, (0, b, 0, 1)
T
} es una base si b = 0 (las dos ultimas columnas son linealmente independientes)
y que {(0, 0, 0, 1)
T
} forma una base cuando b = 0 (el unico vector no nulo es el tercero).
Hemos visto pues que: si a = 0 la dimensi on de E es tres, independientemente del valor de b; si a = 0 y b = 0 E
tiene dimensi on dos; si a = b = 0, la dimensi on de E es uno.
Comenzamos con el caso mas sencillo. Si a = b = 0 la base {(0, 0, 0, 1)
T
} ya es ortogonal (pues solo tiene un vector)
y casualmente tambien es ortonormal (pues el vector tiene norma uno).
La segunda situaci on aparece cuando a = 0 y b = 0. La base encontrada, {(0, 0, b, 0)
T
, (0, b, 0, 1)
T
}, coincide
que es ortogonal (el producto escalar de sus dos vectores es nulo) pero no es ortonormal. Basta con dividir ca-
da vector por su norma. La del primero es |b| y la del segundo

b
2
+ 1. Una base ortonormal es, por ejemplo,
{(0, 0, 1, 0)
T
,
1

b
2
+1
(0, b, 0, 1)
T
}. Observemos, como anecdota, que para obtener el primer vector (0, 0, 1, 0)
T
tenemos
que dividir por |b| si b > 0 y por |b| si b < 0.
La ultima posibilidad aparece cuando a = 0 (y cualquier valor de b). En este caso la base obtenida, {v
1
=
(a, 0, 0, 0)
T
, v
2
= (a, a, b, 0)
T
, v
3
= (a, b, a, 1)
T
}, no es ortogonal. Aplicamos el metodo de GramSchmidt para en-
contrar una base ortogonal:
x
1
= v
1
=
_
_
_
_
a
0
0
0
_
_
_
_
, x
2
= v
2

v
2
x
1
x
1
x
1
x
1
=
_
_
_
_
a
a
b
0
_
_
_
_

a
2
a
2
_
_
_
_
a
0
0
0
_
_
_
_
=
_
_
_
_
0
a
b
0
_
_
_
_
,
110
x
3
= v
3

v
3
x
1
x
1
x
1
x
1

v
3
x
2
x
2
x
2
x
2
=
_
_
_
_
a
b
a
1
_
_
_
_

a
2
a
2
_
_
_
_
a
0
0
0
_
_
_
_

0
a
2
+b
2
_
_
_
_
0
a
b
0
_
_
_
_
=
_
_
_
_
0
b
a
1
_
_
_
_
.
Recordemos que siempre que se aplica el metodo de GramSchmidt conviene comprobar, en cada paso, que el vector
obtenido es ortogonal a todos los anteriores. As, tras el primer paso comprobamos que x
2
x
1
= 0 y tras el segundo
que x
3
x
1
= 0 y x
3
x
2
= 0. Hemos encontrado una base ortogonal de E cuando a = 0, {x
1
, x
2
, x
3
}. Normalizando
cada vector llegamos a la base ortonormal
{(1, 0, 0, 0)
T
,
1

a
2
+ b
2
(0, a, b, 0)
T
,
1

a
2
+b
2
+ 1
(0, b, a, 1)
T
}.
(b) Para calcular la matriz de la proyeccion sobre un subespacio necesitamos una base ortonormal suya (que hemos
calculado en el apartado anterior), formamos una matriz U colocando en sus columnas los vectores de dicha base y la
matriz de la proyeccion buscada se obtiene multiplicando UU
T
.
Nos piden en el caso a = 0, con lo que hay que distinguir entre b = 0 y b = 0. As, para b = 0 obtenemos
U =
_
_
_
_
0
0
0
1
_
_
_
_
P
E
= UU
T
=
_
_
_
_
0
0
0
1
_
_
_
_
_
0 0 0 1
_
=
_
_
_
_
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 1
_
_
_
_
,
mientras que para b = 0 llegamos a
U=
_
_
_
_
0 0
0
b

b
2
+1
1 0
0
1

b
2
+1
_
_
_
_
P
E
= UU
T
=
_
_
_
_
0 0
0
b

b
2
+1
1 0
0
1

b
2
+1
_
_
_
_
_
0 0 1 0
0
b

b
2
+1
0
1

b
2
+1
_
=
_
_
_
_
0 0 0 0
0
b
2
b
2
+1
0
b
b
2
+1
0 0 1 0
0
b
b
2
+1
0
1
b
2
+1
_
_
_
_
.
Una comprobaci on inmediata que permite detectar errores en los c alculos es vericar que la matriz de la proyeccion
ortogonal obtenida es simetrica, pues P
T
E
= (UU
T
)
T
= U
T
U = P
E
.
(c) Una forma de resolver este apartado es buscar una base de F y exigir que todos los vectores de dicha base sean
perpendiculares a todos los de cualquier base de E. Resolviendo el sistema de ecuaciones implcitas obtenemos
F
_
_
_
x
1
= 0,
5x
1
+x
2
+ 3x
3
= 0,
2x
1
+ 3x
2
x
3
+x
4
= 0,

_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= x
3
_
_
_
_
0
3
1
10
_
_
_
_
, x
3
R u
_
_
_
_
0
3
1
10
_
_
_
_
,
con lo que el vector u es una base de F, B
F
= {u}. Por tanto, exigiendo perpendicularidad entre todos los vectores
de las bases, B
F
y B
E
= {v
1
, v
2
, v
3
}, llegamos a
u v
1
= 0
u v
2
= 0
u v
3
= 0
_
_
_

u v
1
= 0
u v
2
= 0
u v
3
= 0
_
_
_

0 = 0
3a +b = 0
3b a + 10 = 0
_
_
_

_
a = 1,
b = 3.
Ejercicio resuelto
Sea V R
5
el subespacio formado por los vectores cuyas componentes suman cero. Encontrar el vector de V mas
proximo a w = (1, 2, 3, 4, 5)
T
.
Del enunciado deducimos que V viene denido por la ecuaci on implcita x
1
+x
2
+x
3
+x
4
+x
5
= 0. Sabemos que el
vector de V mas proximo a w es la proyeccion ortogonal de w sobre V , Proy
V
w. Como V R
5
y viene denido por
una ecuaci on implcita, deducimos que dim(V ) = 4 y que dim(V

) = 5 dim(V ) = 5 4 = 1. Ante esta diferencia


entre las dimensiones de V y V

, es obvio que resulta mucho mas facil proyectar ortogonalmente sobre V

que sobre
V .
Recordemos que para proyectar ortogonalmente sobre un subespacio necesitamos una base ortogonal suya. En
nuestro caso, de la ecuaci on implcita de V deducimos que
V

= Gen {u = (1, 1, 1, 1, 1)
T
},
es decir, ya tenemos una base ortogonal (pues solo tiene un vector) de V

, B
V
= {u}. Por tanto,
Proy
V
w =
w u
u u
u =
15
5
u = 3u = (3, 3, 3, 3, 3)
T
,
111
es decir, el vector que nos piden es
Proy
V
w = w Proy
V
w = (1, 2, 3, 4, 5)
T
(3, 3, 3, 3, 3)
T
= (2, 1, 0, 1, 2)
T
.
Conviene comprobar que el vector encontrado pertenece a V , es decir, que verica su ecuaci on implcita: 2 1 +0 +
1 + 2 = 0.
Si elegimos el camino de proyectar directamente sobre V (cosa totalmente desaconsejable, como podemos ver a
continuacion, por los c alculos tan tediosos que aparecen) procederemos de la siguiente forma. Primero encontramos
una base de V resolviendo su ecuaci on implcita, con lo que llegamos a
V = Gen {v
1
= (1, 1, 0, 0, 0)
T
, v
2
= (1, 0, 1, 0, 0)
T
, v
3
= (1, 0, 0, 1, 0)
T
, v
4
= (1, 0, 0, 0, 1)
T
}.
Como esta base no es ortogonal, aplicamos el metodo de GramSchmidt a esos cuatro vectores:
x
1
= v
1
=
_

_
1
1
0
0
0
_

_
,
x
2
= v
2

v
2
x
1
x
1
x
1
x
1
= v
2

1
2
x
1
=
_

_
1/2
1/2
1
0
0
_

_
x

2
=
_

_
1
1
2
0
0
_

_
,
x
3
= v
3

v
3
x
1
x
1
x
1
x
1

v
3
x

2
x

2
x

2
x

2
= v
3

1
2
x
1

1
6
x

2
=
_

_
1/3
1/3
1/3
1
0
_

_
x

3
=
_

_
1
1
1
3
0
_

_
,
x
4
= v
4

v
4
x
1
x
1
x
1
x
1

v
4
x

2
x

2
x

2
x

v
4
x

3
x

3
x

3
x

3
= v
4

1
2
x
1

1
6
x

1
12
x

3
=
_

_
1/4
1/4
1/4
1/4
1
_

_
x

4
=
_

_
1
1
1
1
4
_

_
.
N otese que hemos introducido el vector x

2
(m ultiplo de x
2
) para evitar la aparici on de fracciones en los c alculos
posteriores. El mismo comentario justica la introduccion de x

3
y x

4
.
Para detectar posibles errores, comprobamos: despues del primer paso que x

2
es perpendicular a x
1
(x
1
x

2
= 0)
y que pertenece a V (que verica su ecuaci on implcita, x
1
+ x
2
+ x
3
+ x
4
+ x
5
= 0); despues del segundo paso, que
x

3
es perpendicular a x
1
y a x

2
y que pertenece a V ; despues del tercer y ultimo paso, que x

4
es perpendicular a x
1
,
a x

2
y a x

3
y que pertenece a V .
Con la base ortogonal de V encontrada llegamos a
Proy
V
w =
w x
1
x
1
x
1
x
1
+
w x

2
x

2
x

2
x

2
+
w x

3
x

3
x

3
x

3
+
w x

4
x

4
x

4
x

4
=
1
2
x
1
+
3
6
x

2
+
6
12
x

3
+
10
20
x

4
= (2, 1, 0, 1, 2)
T
.
Observemos que una alternativa a aplicar el metodo de Gram-Schmidt es buscar con cuidado una base ortogonal de
V . Como su ecuaci on implcita es x
1
+x
2
+x
3
+x
4
+x
5
= 0, elegimos un primer vector cualquiera (cuanto mas sencillo
mejor, pues en la solucion aparecen cuatro par ametros) que verique esa ecuaci on, por ejemplo, w
1
= (1, 1, 0, 0, 0)
T
.
Ahora un segundo vector, w
2
= (a, b, c, d, e)
T
, lo determinamos exigiendo que verique la ecuaci on anterior y que
sea perpendicular a w
1
, es decir, debe vericar a + b + c + d + e = 0, a b = 0. Elegimos un vector cualquiera
(cuanto mas sencillo mejor, pues en la solucion aparecen tres par ametros) que verique este sistema, por ejemplo,
w
2
= (1, 1, 2, 0, 0)
T
. Un tercer vector, w
3
= (a, b, c, d, e)
T
, lo determinamos exigiendo que verique la ecuaci on de V
y que sea perpendicular a w
1
y a w
2
, es decir, debe vericar a+b+c+d+e = 0, ab = 0, a+b2c = 0. Elegimos un
vector cualquiera (cuanto mas sencillo mejor, pues en la solucion aparecen dos par ametros) que verique este sistema,
por ejemplo, w
3
= (1, 1, 1, 3, 0)
T
. Por ultimo, un cuarto vector, w
4
= (a, b, c, d, e)
T
, lo determinamos exigiendo que
verique la ecuaci on de V y que sea perpendicular a w
1
, a w
2
y a w
3
, es decir, debe vericar a + b + c + d + e =
0, a b = 0, a +b 2c = 0, a +b +c 3d = 0. Elegimos un vector cualquiera (en la solucion aparecen los m ultiplos
de (1, 1, 1, 1, 4)
T
) que verique este sistema, por ejemplo, w
4
= (1, 1, 1, 1, 4)
T
. De esta forma, una base ortogonal
de V sera {w
1
, w
2
, w
3
, w
4
}.
Notemos que si queremos calcular las matrices de la proyeccion ortogonal sobre V , P
V
, y sobre V

, P
V
, conviene
112
calcular primero P
V
(usando una base ortonormal de V

):
P
V
=
_
_
_
_
_
_
1/

5
1/

5
1/

5
1/

5
1/

5
_
_
_
_
_
_
_
1/

5 1/

5 1/

5 1/

5 1/

5
_
=
1
5
_

_
1 1 1 1 1
1 1 1 1 1
1 1 1 1 1
1 1 1 1 1
1 1 1 1 1
_

_
,
y luego, trivialmente que
P
V
= I P
V
=
1
5
_

_
4 1 1 1 1
1 4 1 1 1
1 1 4 1 1
1 1 1 4 1
1 1 1 1 4
_

_
.
Con P
V
ya podemos calcular Proy
V
w: Proy
V
w = P
V
w = (3, 3, 3, 3, 3)
T
y, por tanto, obtenemos Proy
V
w =
w Proy
V
w = (2, 1, 0, 1, 2)
T
.
Si trabajamos con P
V
, entonces Proy
V
w = P
V
w = (2, 1, 0, 1, 2)
T
.
Ejercicio resuelto
Consideremos la base B =
_
_
_
_
_
1
2
3
_
_
,
_
_
1
1
2
_
_
,
_
_
1
2
6
_
_
_
_
_
.
(a) Determinar las matrices de cambio de base entre B y la base canonica.
(b) Calcular todos los vectores de R
3
cuyas coordenadas son las mismas en la base B que en la base canonica.
(c) Calcular la proyeccion ortogonal del vector [3 0 1 2 1]
T
sobre el subespacio de R
5
cuyas ecuaciones implcitas
son
_
x
1
+x
2
+ x
4
x
5
=0,
2x
1
+x
3
+2x
4
=0.
(d) Demostrar que Nul (M) Nul (M
2
) para cualquier matriz cuadrada M.
(a) Tenemos que encontrar dos matrices. La primera de ellas, correspondiente al paso de la base B a la base canonica
(que denotaremos por E), no es mas que
P
B
= P
EB
=
_
_
1 1 1
2 1 2
3 2 6
_
_
,
donde hemos situado, por columnas, los vectores de la base B. La matriz de paso de la base canonica a la base B es
la inversa de la anterior, es decir,
P
BE
= P
1
EB
=
_
_
1 1 1
2 1 2
3 2 6
_
_
1
=
1
3
_
_
2 4 1
6 3 0
1 1 1
_
_
.
Esta inversa se puede calcular, por ejemplo, por el metodo de Gauss-Jordan:
_
_
1 1 1 1 0 0
2 1 2 0 1 0
3 2 6 0 0 1
_
_

_
_
1 1 1 1 0 0
0 1 0 2 1 0
0 1 3 3 0 1
_
_

_
_
1 1 1 1 0 0
0 1 0 2 1 0
0 0 3 1 1 1
_
_

_
_
1 1 1 1 0 0
0 1 0 2 1 0
0 0 1 1/3 1/3 1/3
_
_

_
_
1 1 0 4/3 1/3 1/3
0 1 0 2 1 0
0 0 1 1/3 1/3 1/3
_
_

_
_
1 0 0 2/3 4/3 1/3
0 1 0 2 1 0
0 0 1 1/3 1/3 1/3
_
_
.
(b) Queremos aquellos vectores de R
3
cuyas coordenadas coinciden en la base canonica y en B, es decir, aquellos
vectores v = [x y z]
T
, tales que P
B
v = v. Escrito en forma de sistema queda
_
_
1 1 1
2 1 2
3 2 6
_
_
_
_
x
y
z
_
_
=
_
_
x
y
z
_
_
,
113
o, equivalentemente,
_
_
0 1 1
2 0 2
3 2 5
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
,
ya que este ultimo sistema no es mas que (P
B
I)v = 0.
Una simple eliminacion de Gauss transforma este sistema en otro equivalente,
_
_
0 1 1
2 0 2
3 2 5
_
_

_
_
2 0 2
0 1 1
3 2 5
_
_

_
_
1 0 1
0 1 1
3 2 5
_
_

_
_
1 0 1
0 1 1
0 2 2
_
_

_
_
1 0 1
0 1 1
0 0 0
_
_
,
que, una vez resuelto, tiene como solucion
_
_
x
y
z
_
_
= z
_
_
1
1
1
_
_
, siendo z R, una variable libre.
(c) Para simplicar, llamemos S al subespacio y u al vector que nos dan. Ya que la dimensi on de S es 3 (viene denido
por dos ecuaciones implcitas independientes en R
5
) y estamos trabajando en R
5
, es conveniente calcular la proyeccion
ortogonal sobre S

, que tiene menor dimensi on (en concreto su dimensi on es 2).


Una base de S

se obtiene directamente de los coecientes de las ecuaciones implcitas de S, ya que dan lugar a
dos vectores linealmente independientes:
_

_
v
1
=
_

_
1
1
0
1
1
_

_
, v
2
=
_

_
2
0
1
2
0
_

_
_

_
.
Estos vectores no son ortogonales, as que vamos a aplicarles el metodo de Gram-Schmidt:
w
1
= v
1
=
_

_
1
1
0
1
1
_

_
; w
2
= v
2

v
2
w
1
w
1
w
1
w
1
=
_

_
2
0
1
2
0
_

_
1
_

_
1
1
0
1
1
_

_
=
_

_
1
1
1
1
1
_

_
.
De este modo, hemos obtenido una base ortogonal de S

:
B
S
=
_

_
w
1
=
_

_
1
1
0
1
1
_

_
, w
2
=
_

_
1
1
1
1
1
_

_
_

_
.
Si nos pidiesen la matriz de la proyeccion ortogonal, necesitaramos normalizar los vectores y despues multiplicar la
matriz que se obtuviese a partir de ellos, coloc andolos por columnas, por su traspuesta. Esto nos llevara a trabajar con
fracciones y radicales hasta llegar a una matriz 5 5, que en este caso, no es necesaria. Para proyectar ortogonalmente
un vector sobre un subespacio basta con tener una base ortogonal de este:
Proy
S
u =
u w
1
w
1
w
1
w
1
+
u w
2
w
2
w
2
w
2
= 1
_

_
1
1
0
1
1
_

_
+
7
5
_

_
1
1
1
1
1
_

_
=
_

_
12/5
2/5
7/5
12/5
2/5
_

_
.
Volviendo al subespacio original, S, el vector pedido no es mas que
Proy
S
u = u Proy
S
u =
_

_
3
0
1
2
1
_

_
12/5
2/5
7/5
12/5
2/5
_

_
=
_

_
3/5
2/5
2/5
2/5
3/5
_

_
.
(d) Si un vector v pertenece a Nul (M) signica que Mv = 0. Si multiplicamos esta expresion por M quedara M
2
v =
M0 = 0, por lo que v tambien pertenece a Nul (M
2
).
114
6. Problemas de mnimos cuadrados. Ecuaciones normales de Gauss.
En terminos generales, resolver un problema en el sentido de los mnimos cuadrados es sustituir un problema en
el que hay que resolver un sistema de ecuaciones (que no tiene solucion) por el problema de minimizar una suma de
cuadrados.
Ejemplo. El problema de la regresion lineal. Si consideramos dos magnitudes, x e y, de las que suponemos
que est an relacionadas mediante una igualdad del tipo y = ax + b, donde tenemos que determinar a y b mediante la
obtencion de resultados experimentales, y dichos resultados son
x x
1
x
2
x
n
y y
1
y
2
y
n
los valores a y b los obtendremos de la resolucion del sistema de ecuaciones lineales
ax
1
+b = y
1
ax
2
+b = y
2

ax
n
+b = y
n
_

_
x
1
1
x
2
1
.
.
.
.
.
.
x
n
1
_

_
_
a
b
_
=
_

_
y
1
y
2
.
.
.
y
n
_

_
,
pero lo habitual es que un sistema de ecuaciones como el anterior no tenga solucion. Resolver el sistema anterior en el
sentido de los mnimos cuadrados consiste en determinar los valores a y b para los cuales la suma de cuadrados
(ax
1
+b y
1
)
2
+ (ax
2
+b y
2
)
2
+ + (ax
n
+b y
n
)
2
es mnima (si hubiera solucion, del sistema dado, dicho valor mnimo sera cero). Puesto que esta suma de cuadrados
es el cuadrado de la norma del vector
_

_
x
1
1
x
2
1
.
.
.
.
.
.
x
n
1
_

_
_
a
b
_

_
y
1
y
2
.
.
.
y
n
_

_
,
y los vectores de la forma
_

_
x
1
1
x
2
1
.
.
.
.
.
.
x
n
1
_

_
_
a
b
_
, a, b R,
forman el espacio columna S de la matriz considerada, resolver el sistema en mnimos cuadrados es determinar el
vector de S mas cercano al termino independiente considerado y resolver el sistema (que sera compatible) con ese
nuevo termino independiente.
Para un sistema generico de ecuaciones lineales Ax = b, resolverlo en el sentido de los mnimos cuadrados es
determinar el vector (o vectores) x R
n
para los cuales
||Ax b|| es mnima.
Puesto que los vectores Ax recorren el espacio columna de A (cuando x recorre R
n
), ||Ax b|| sera mnima para los
vectores x R
n
tales que Ax es igual a la proyeccion ortogonal de b sobre el espacio Col (A).
R
n
R
m
O
O
x
b
proy
S
(b)
A
Ax
Col (A)
Teorema. Consideremos un sistema de ecuaciones Ax = b, A matriz real mn, b R
m
, S = Col (A) y sea x R
n
.
Son equivalentes:
(a) x es solucion en mnimos cuadrados del sistema Ax = b, es decir,
||A x b|| ||Ax b|| , x R
n
.
115
(b) x verica A x = proy
S
(b).
(c) x verica las ecuaciones normales de Gauss: A
T
A x = A
T
b.
Observaciones.
(a) El sistema de ecuaciones Ax = proy
S
(b) (sistema mn) y el sistema A
T
Ax = A
T
b (sistema n n) son siempre
compatibles y tienen el mismo conjunto de soluciones.
(b) El sistema Ax = proy
S
(b) sera compatible determinado (es decir, el problema en mnimos cuadrados tendra solu-
cion unica) si y solo si el sistema homogeneo asociado Ax = 0 tiene solucion unica. Por tanto,
el sistema Ax = b tiene solucion unica
en mnimos cuadrados

las columnas de A son linealmente inde-
pendientes (rango(A) = n).
7. Ajuste de curvas, regresion lineal.
En el epgrafe anterior hemos planteado el problema de la regresion lineal. Resolviendo en mnimos cuadrados el
sistema planteado se obtiene la recta de regresion de y sobre x (en el planteamiento del sistema, la variable
y est a expresada en funci on de x) para la nube de puntos dada. Notemos que la resolucion en mnimos cuadrados
considerada consiste en determinar la recta que hace mnima la suma de cuadrados de las distancias sobre la vertical
de los puntos dados a la recta.
X
Y
x
k
y
k
ax
k
+b
y = ax +b
De forma similar (y resultado distinto, por lo general) podramos haber planteado el problema de determinar una
recta x = y + que pase por los puntos (x
k
, y
k
), k = 1, . . . , n dados. Por lo general, el sistema resultante
y
1
+ = x
1
y
2
+ = x
2

y
n
+ = x
n
_

_
y
1
1
y
2
1
.
.
.
.
.
.
y
n
1
_

_
_

_
=
_

_
x
1
x
2
.
.
.
x
n
_

_
no tiene solucion y su resolucion en el sentido de los mnimos cuadrados permite determinar la recta que hace mnima
la suma de cuadrados de las distancias sobre la horizontal de los puntos dados a la recta. La recta que se obtiene
mediante la resolucion en mnimos cuadrados del sistema anterior se denomina recta de regresion de x sobre y
para la nube de puntos dada. Notemos que cualquier recta que no sea paralela a ninguno de los ejes coordenados puede
expresarse mediante y = ax + b y mediante x = y + . Sin embargo, no es equivalente resolver en el sentido de los
mnimos cuadrados el sistema asociado a una u otra expresion.
116
X
Y
x
k
y
k
y
k
+
x = y +
Desde un punto de vista mas generico que el de la regresion lineal (ajustar una recta a una nube de puntos), puede
considerarse el problema de ajustar, a una nube de puntos del plano (x
1
, y
1
), . . . , (x
n
, y
n
), una curva de un cierto tipo
(dada por un tipo de ecuaci on explcita y = f(x) o implcita F(x, y) = 0). As, podemos considerar el problema de
determinar
la par abola (de eje principal vertical) y = ax
2
+bx +c,
la circunferencia x
2
+ y
2
+ax +by +c = 0
. . .
que mejor se ajusta, en el sentido de los mnimos cuadrados, a una nube de puntos dada. En cualquier
caso, se trata de problemas que llevan a sistemas de ecuaciones lineales que no tienen solucion y se resuelven en el
sentido de los mnimos cuadrados.
Un planteamiento similar al de ajustar una curva a una nube de puntos es valido para ajustar una supercie en
R
3
de un tipo prejado a una determinada nube de puntos
(x
1
, y
1
, z
1
), . . . , (x
n
, y
n
, z
n
).
Por ejemplo, puede considerarse el problema de ajustar, en el sentido de los mnimos cuadrados,
un plano dado por la ecuaci on z = ax +by +c (regresion lineal z sobre (x, y)),
una esfera de ecuaci on x
2
+y
2
+z
2
+ ax +by +cz +d = 0,
. . .
a los puntos dados.
Ejercicio resuelto
Encontrar la recta y = x+ que mejor ajusta, en el sentido de los mnimos cuadrados, a la nube de puntos (0, 2),
(1, 6) y (3, 0).
Queremos ajustar la nube de puntos (0, 2), (1, 6) y (3, 0) por una recta del tipo y = x+. En primer lugar escribimos
el sistema correspondiente Ax = b, despues calculamos las ecuaciones normales de Gauss, A
T
Ax = A
T
b, y nalmente
las resolvemos.
As, cada punto da lugar a una ecuaci on, y podemos identicar A, x y b:
(0, 2) 2 = 0 +
(1, 6) 6 = 1 +
(3, 0) 0 = 3 +
_
_
_

_
_
0 1
1 1
3 1
_
_
_

_
=
_
_
2
6
0
_
_
A =
_
_
0 1
1 1
3 1
_
_
, x =
_

_
, b =
_
_
2
6
0
_
_
.
Las ecuaciones normales de Gauss, A
T
Ax = A
T
b, son pues
_
0 1 3
1 1 1
_
_
_
0 1
1 1
3 1
_
_
_

_
=
_
0 1 3
1 1 1
_
_
_
2
6
0
_
_

_
10 4
4 3
__

_
=
_
6
8
_

_
5 2
4 3
__

_
=
_
3
8
_
117
y resolviendolas obtenemos
_
5 2 3
4 3 8
_

_
20 8 12
20 15 40
_

_
20 8 12
0 7 28
_

_
5 2 3
0 1 4
_

_
= 1,
= 4,
con lo que la recta que mejor ajusta a la nube de puntos en el sentido de los mnimos cuadrados es
y = x + 4.
Ejercicio resuelto
Por el metodo de los mnimos cuadrados, ajustar una par abola y = ax
2
+ bx + c a los puntos (1, 3), (1, 1),
(1, 2), (1, 1).
Si exigimos que los puntos pertenezcan a la par abola, obtenemos el siguiente sistema (una ecuaci on por cada punto):
_

_
3 = 1
2
a + 1 b +c
1 = 1
2
a + 1 b +c
2 = (1)
2
a + (1)b +c
1 = (1)
2
a + (1)b +c

_
a +b +c = 3
a +b +c = 1
a b +c = 2
a b +c = 1

_
1 1 1 3
1 1 1 1
1 1 1 2
1 1 1 1
_

_
1 1 1 3
0 0 0 4
0 2 0 5
0 2 0 2
_

_
que obviamente es incompatible (comp arense, por ejemplo, las dos primeras ecuaciones). Escribimos y resolvemos las
ecuaciones normales de Gauss, A
T
Ax = A
T
b,
_
_
4 0 4
0 4 0
4 0 4
_
_
_
_
a
b
c
_
_
=
_
_
1
3
1
_
_

_
_
4 0 4 1
0 4 0 3
4 0 4 1
_
_

_
_
4 0 4 1
0 4 0 3
0 0 0 0
_
_

_
_
a
b
c
_
_
=
_
_

1
4
c

3
4
c
_
_
que resultan ser un sistema compatible indeterminado (c R). Es decir, las par abolas
y =
_
1
4
+c
_
x
2

3
4
x +c, c R
son la solucion al problema planteado.
Ejercicio resuelto
Encontrar la circunferencia de la familia
x
2
+y
2
+ax +by +c = 0
que mejor se ajuste, en el sentido de los mnimos cuadrados, a los puntos (0, 0), (1, 0), (0, 1) y (1, 1), indicando las
coordenadas del centro y el radio de la misma.
Exigimos que cada punto pertenezca a la circunferencia ax +by +c = x
2
y
2
, con lo que obtenemos el sistema, de
cuatro ecuaciones y tres inc ognitas,
(0, 0) : 0 a + 0 b + c = 0
2
0
2
= 0
(1, 0) : 1 a + 0 b + c = 1
2
0
2
= 1
(0, 1) : 0 a + 1 b + c = 0
2
1
2
= 1
(1, 1) : 1 a + 1 b + c = 1
2
1
2
= 2
que matricialmente se puede escribir como Ax = b
_

_
0 0 1
1 0 1
0 1 1
1 1 1
_

_
_
_
a
b
c
_
_
=
_
_
_
_
0
1
1
2
_
_
_
_
.
El sistema que debemos resolver para encontrar la solucion en el sentido de los mnimos cuadrados es el que nos
proporcionan las ecuaciones normales de Gauss, A
T
Ab = A
T
b,
_
_
0 1 0 1
0 0 1 1
1 1 1 1
_
_
_

_
0 0 1
1 0 1
0 1 1
1 1 1
_

_
_
_
a
b
c
_
_
=
_
_
0 1 0 1
0 0 1 1
1 1 1 1
_
_
_
_
_
_
0
1
1
2
_
_
_
_

_
_
2 1 2
1 2 2
2 2 4
_
_
_
_
a
b
c
_
_
=
_
_
3
3
4
_
_
118
que resolvemos facilmente
_
_
2 1 2 3
1 2 2 3
2 2 4 4
_
_

_
_
1 2 2 3
2 1 2 3
1 1 2 2
_
_

_
_
1 2 2 3
0 3 2 3
0 1 0 1
_
_

_
_
1 2 2 3
0 1 0 1
0 0 2 0
_
_
,
con lo que obtenemos c = 0, b = 1 y a = 1. Es decir, la circunferencia que mejor ajusta en el sentido de los mnimos
cuadrados es
x
2
+y
2
x y = 0
_
x
1
2
_
2

1
4
+
_
y
1
2
_
2

1
4
= 0
_
x
1
2
_
2
+
_
y
1
2
_
2
=
_

2
2
_
2
,
con centro en (
1
2
,
1
2
) y de radio

2
2
.
Observemos que, casualmente, el sistema Ax = b que obtenemos es compatible (ya que los cuatro puntos que nos
dan son los vertices de un cuadrado de lado unidad y con centro en (
1
2
,
1
2
)). Sabemos entonces que la solucion en el
sentido de los mnimos cuadrados coincide con la solucion del sistema original.
Ejercicio resuelto
Determinar la c onica de la familia
ax
2
+ 4axy +ay
2
+bx by + 1 = 0
que mejor se ajusta, en el sentido de los mnimos cuadrados, a los puntos (1, 0), (1, 0), (1, 1) y (0, 2).
Exigimos que cada punto pertenezca a la c onica a(x
2
+4xy +y
2
) +b(xy) +1 = 0, con lo que obtenemos el sistema,
de cuatro ecuaciones y dos inc ognitas,
(1, 0) : (1
2
+ 4 1 0 + 0
2
)a + (1 0)b + 1 = 0 a +b = 1,
(1, 0) : ((1)
2
+ 4(1) 0 + 0
2
)a + (1 0)b + 1 = 0 a b = 1,
(1, 1) : ((1)
2
+ 4(1) 1 + 1
2
)a + (1 1)b + 1 = 0 2a 2b = 1,
(0, 2) : (0
2
+ 4 0 2 + 2
2
)a + (0 2)b + 1 = 0 4a 2b = 1,
que matricialmente se puede escribir como Ax = b
_

_
1 1
1 1
2 2
4 2
_

_
_
a
b
_
=
_

_
1
1
1
1
_

_
.
El sistema que debemos resolver para encontrar la solucion en el sentido de los mnimos cuadrados es el que nos
proporcionan las ecuaciones normales de Gauss, A
T
Ab = A
T
b,
_
1 1 2 4
1 1 2 2
_
_

_
1 1
1 1
2 2
4 2
_

_
_
a
b
_
=
_
1 1 2 4
1 1 2 2
_
_

_
1
1
1
1
_

_
22 4
4 10
__
a
b
_
=
_
4
4
_
que resolvemos facilmente
_
22 4 4
4 10 4
_

_
22 4 4
22 55 22
_

_
22 4 4
0 51 18
_
,
con lo que obtenemos b =
6
17
y a =
2
17
. Es decir, la c onica que mejor ajusta, en el sentido de los mnimos cuadrados,
a la nube de puntos dada es

2
17
(x
2
+ 4xy +y
2
) +
6
17
(x y) + 1 = 0 2(x
2
+ 4xy +y
2
) 6(x y) = 17.
Ejercicio resuelto
Consideremos la matriz A =
_
_
2 2 0
2 2 0
2 0 2
_
_
.
(a) Determinar una base y unas ecuaciones implcitas de Col(A) y (Nul(A))

.
(b) Obtener una base ortonormal de Col(A) y calcular la matriz de la proyeccion ortogonal sobre dicho subespacio.
(c) Siendo b = [0 2 2]
T
, encontrar las soluciones en el sentido de los mnimos cuadrados de Ax = b. Determinar,
entre ellas, las que tengan norma
_
5/4.
(d) Sea S = {v
1
, . . . , v
p
} un conjunto ortonormal en R
n
. Probar que S es linealmente independiente.
119
(a) Comentamos una de las diversas formas que hay para resolver este apartado.
Ecuaciones implcitas de Col(A): Como sabemos, para encontrar unas ecuaciones implcitas de un subespacio gene-
rado por varios vectores (en este caso los vectores columna de A) basta considerar un vector generico [x
1
x
2
x
3
]
T
e
imponer que sea combinaci on lineal de dichos vectores.
_
_
2 2 0 x
1
2 2 0 x
2
2 0 2 x
3
_
_

_
_
2 2 0 x
1
0 0 0 x
2
x
1
0 -2 2 x
3
x
1
_
_
.
Comprobamos que la ecuaci on implcita
x
2
= x
1
(8)
dene a Col(A) y una base viene dada por
B
Col(A)
=
_
_
_
_
_
2
2
2
_
_
,
_
_
2
2
0
_
_
_
_
_
.
Ecuaciones implcitas de (Nul(A))

: Comenzamos hallando una base de Nul(A), lo que se consigue sin mas que
resolver Ax = 0. De la eliminacion de Gauss anterior se desprende que unas ecuaciones equivalentes al sistema son
_
2x
1
+2x
2
=0,
2x
2
+2x
3
=0,
las cuales, una vez resueltas nos dan la siguiente base
B
Nul(A)
=
_
_
_
_
_
1
1
1
_
_
_
_
_
.
Para obtener unas ecuaciones implcitas de (Nul(A))

simplemente hemos de utilizar las componentes de los vectores


(solo uno en este caso) de la base como coecientes en dichas ecuaciones. As tenemos que
x
1
+x
2
+x
3
= 0 (9)
es una ecuaci on implcita de (Nul(A))

.
(b) Como ya hemos hecho una eliminacion de Gauss con la matriz A, sabemos que una base del espacio Col(A) puede
estar formada por las dos primeras columnas de la matriz. Sin embargo, estos dos vectores no son ortogonales, as que
tendramos que ortogonalizar los vectores mediante el metodo de Gram-Schmidt.
Para evitar esos c alculos solo tenemos que darnos cuenta (por simple inspeccion) de que las dos ultimas columnas
de A tambien forman una base de Col(A) y, ademas, es ortogonal. Dividiendo los dos vectores por su norma tendremos
la base ortonormal que pide el enunciado:
B
Col(A)
=
_
_
_
_
_
1/

2
1/

2
0
_
_
,
_
_
0
0
1
_
_
_
_
_
.
Siendo ahora
Q =
_
_
1/

2 0
1/

2 0
0 1
_
_
,
la matriz de la proyeccion ortogonal sobre Col(A) se puede calcular como
P = QQ
T
=
_
_
1/

2 0
1/

2 0
0 1
_
_
_
1/

2 1/

2 0
0 0 1
_
=
_
_
1/2 1/2 0
1/2 1/2 0
0 0 1
_
_
.
Nota: Esta matriz es siempre la misma, independientemente de la base ortonormal escogida.
(c) Podemos resolver el problema usando las ecuaciones normales de Gauss, pero ya que tenemos, del apartado anterior,
la matriz P de la proyeccion ortogonal sobre Col(A), es mas corto calcular la proyeccion del vector b sobre Col(A) y
despues resolver
Ax = Proy
Col(A)
b.
Entonces, como
Proy
Col(A)
b = Pb =
_
_
1
1
2
_
_
,
120
el sistema que hemos de resolver es
_
_
2 2 0
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
1
1
2
_
_
.
Realizamos ahora una eliminacion de Gauss, que es analoga a la que hicimos en el primer apartado,
_
_
2 2 0 1
2 2 0 1
2 0 2 2
_
_

_
_
2 2 0 1
0 0 0 0
0 2 2 1
_
_

_
_
2 2 0 1
0 -2 2 1
0 0 0 0
_
_
,
llegando a la forma escalonada reducida
_
_
1 1 0 1/2
0 1 1 1/2
0 0 0 0
_
_

_
_
1 0 1 1
0 1 1 1/2
0 0 0 0
_
_
.
Es inmediato, tomando como variable libre x
3
R, que la solucion del sistema es
_
_
x
1
x
2
x
3
_
_
=
_
_
1
1/2
0
_
_
+x
3
_
_
1
1
1
_
_
=
_
_
1 x
3
1/2 +x
3
x
3
_
_
.
Veamos ahora cual de esas soluciones verica que su norma es
_
5/4.
_
_
_
_
_
_
_
_
1 x
3
1/2 +x
3
x
3
_
_
_
_
_
_
_
_
=
_
(1 x
3
)
2
+ (1/2 +x
3
)
2
+x
2
3
=
_
3x
2
3
3x
3
+
5
4
.
Imponiendo que la norma sea
_
5/4 queda la condicion
3x
2
3
3x
3
= 0,
que nos da los valores x
3
= 0 y x
3
= 1. Sustituyendo en la solucion del sistema de mnimos cuadrados tenemos las dos
soluciones que pide el enunciado:
_
_
1
1/2
0
_
_
y
_
_
0
1/2
1
_
_
.
(d) Escribamos una combinaci on lineal de los vectores de S igualada a cero:

1
v
1
+. . . +
p
v
p
= 0.
En caso de que probemos que todos los coecientes han de ser nulos tendremos que S es linealmente independiente.
Multiplicando escalarmente la expresion anterior por cualquiera de los vectores de S (digamos v
i
) tendremos

1
(v
i
v
1
) +. . . +
i1
(v
i
v
i1
) +
i
(v
i
v
i
) +
i+1
(v
i
v
i+1
) +. . . +
p
(v
i
v
p
) = 0.
Por ser S ortonormal, v
i
v
j
= 0 siempre que j = i y ademas v
i
v
i
= 1. Llevando todo esto a la expresion anterior
tendremos

1
=0
..
(v
i
v
1
) +. . . +
i1
=0
..
(v
i
v
i1
) +
i
=1
..
(v
i
v
i
) +
i+1
=0
..
(v
i
v
i+1
) +. . . +
p
=0
..
(v
i
v
p
) = 0,
quedando, por tanto,

i
= 0.
Como el razonamiento no depende del subndice i escogido, acabamos de probar que todos los coecientes de la
combinaci on lineal son nulos y, de ese modo, S es linealmente independiente.
8. Ejercicios.
Ejercicio 1. Dados los subespacios
E = Gen
_

_
_

_
1
0
2
1
_

_
,
_

_
2
1
2
3
_

_
,
_

_
0
1
2
1
_

_
_

_
y F
_
_
_
2x +y + 3z t = 0,
3x + 2y 2t = 0,
3x +y + 9z t = 0,
obtener una base y unas ecuaciones implcitas de E

y de F

.
121
Ejercicio 2. Descomponer el vector (1, 3, 1, 4)
T
en suma de dos vectores u +v siendo u proporcional a (2, 1, 0, 1)
T
y v u.
Ejercicio 3. Hallar la proyeccion ortogonal de los siguientes vectores sobre los subespacios que se indican:
(a) (4, 1, 3, 2)
T
sobre el subespacio denido por x
1
+x
2
+x
3
+x
4
= 0.
(b) (1, 1, 1, 1)
T
sobre el subespacio de R
4
dado por:
E
_
x y +z 2t = 0,
y +z = 0.
(c) (3, 4, 5)
T
sobre el subespacio f(E) siendo f la aplicacion lineal dada por la matriz
A =
_
_
1 0 1
1 1 0
0 1 1
_
_
y E el subespacio de R
3
dado por x y z = 0.
Ejercicio 4. Dados los subespacios de R
3
,
E {3x +y 2z = 0} y F {x + 7y +z = 0, x y z = 0},
obtener una base de (E +F)

.
Ejercicio 5. Dadas las bases ortonormales de R
2
B
1
=
_
u
1
=
_
1/

2, 1/

2
_
T
, u
2
=
_
1/

2, 1/

2
_
T
_
y
B
2
=
_
w
1
=
_
1/2,

3/2
_
T
, w
2
=
_

3/2, 1/2
_
T
_
hallar la matriz correspondiente al cambio de una de esas bases a la otra. Comprobar que la matriz de paso es ortogonal.
Ejercicio 6. Hallar el vector perteneciente al subespacio de R
4
generado por los vectores
(2, 0, 1, 2)
T
, (1, 2, 2, 0)
T
y (1, 2, 0, 2)
T
que est a mas cerca del vector (1, 1, 1, 1)
T
.
Ejercicio 7. Hallar la matriz de la proyeccion ortogonal sobre cada uno de los siguientes subespacios de R
4
:
(a) el subespacio generado por (0, 2, 1, 0)
T
y (1, 1, 0, 1)
T
.
(b) el subespacio generado por (0, 0, 2, 1)
T
y (1, 1, 1, 0)
T
.
(c) Sobre E y E

, siendo E
_
x 3y +z +t = 0
2x 5y +z + 2t = 0
Comprobar que, como debe ser, la suma de ambas matrices
vale I.
Ejercicio 8. Dado el subespacio S R
3
denido por x
1
2x
2
+ 2x
3
= 0, se pide:
(a) Hallar la matriz de la proyeccion ortogonal sobre S. Cual es la matriz de la proyeccion ortogonal sobre S

?
(b) Obtener una base de S

.
(c) Demostrar que Col (A) = S, siendo
A =
_
_
2 0
0 1
1 1
_
_
.
122
(d) Dado el vector v = (1, 1, 1)
T
, calcular el vector de S que dista menos de v.
Ejercicio 9. Aplicar el metodo de Gram-Schmidt a la siguiente base de R
4
:
_
(1, 0, 1, 0)
T
, (1, 1, 0, 0)
T
, (0, 1, 1, 1)
T
, (0, 1, 1, 0)
T
_
.
Ejercicio 10. La proyeccion ortogonal del vector v = (5, 2, 3)
T
sobre la recta x = y, y = z es:
(1, 1, 1)
T
.
(3, 3, 3)
T
.
(2, 2, 2)
T
.
Ejercicio 11. Halla una base ortonormal de Col (A) y otra de Nul (A) siendo
A =
_

_
1 1 0
0 1 1
1 1 1
1 1 1
_

_
.
Ejercicio 12. Dado el subespacio
E = Gen
_
(a, 0, 0, 0)
T
, (a, a, b, 0)
T
, (a, b, a, 1)
T
_
con a, b R.
(1) Hallar una base ortonormal del subespacio E seg un los valores de a y b.
(2) Hallar la matriz de la proyeccion ortogonal sobre E, cuando a = 0.
(3) Calcular los valores de los par ametros a y b tales que el subespacio dado por las ecuaciones
_
_
_
x
1
= 0
5x
1
+x
2
+ 3x
3
= 0
2x
1
+ 3x
2
x
3
+x
4
= 0
sea ortogonal a E.
Ejercicio 13. Sea A una matriz cuadrada de orden 25 cuyo rango es 21. Que sucede al aplicar el metodo de
Gram-Schmidt a los vectores columna de A? Cuantas veces? Por que?
Ejercicio 14. Resolver en el sentido de los mnimos cuadrados los siguientes sistemas de ecuaciones
(a) x = 1, x = 7, x = 3, x = 12.
(b) x = a
1
, x = a
2
, ..., x = a
n
, siendo a
1
, a
2
, ..., a
n
n umeros reales. Que se obtiene cuando alguno de los valores a
k
aparece repetido?
(c) Ax = b siendo
A =
_
1 1
1 1
_
y b =
_
2
4
_
.
Ejercicio 15. Resuelve en el sentido de los mnimos cuadrados los dos sistemas equivalentes siguientes (que tendran
las mismas soluciones exactas si fueran compatibles)
_
x
1
+x
2
= 3
2x
1
+ 2x
2
= 4
_
x
1
+x
2
= 3
x
1
+x
2
= 1
123
Ejercicio 16. Dados el subespacio E = Gen
_
[1, 0, 0, 1]
T
, [0, 1, 0, 2]
T
, [0, 0, 1, 1]
T
_
y la matriz
A =
_

_
a
1
b
1
a
2
2
a
3
b
2
2 b
3
_

_
.
(a) Calcular una base de E

.
(b) Hallar la matriz de la proyeccion ortogonal sobre E.
(c) Calcular A sabiendo que Col (A)) est a contenido en E

.
(d) Resolver en el sentido de los mnimos cuadrados, el sistema Ax = b con b = (1, 1, 0, 0)
t
.
Ejercicio 17. Calcular las rectas de regresion y = ax +b y x = y + para los datos:
x 1 2 3 4 5 6 7
y 2 3 1 4 6 7 5
Ejercicio 18. Se supone que el n umero de horas de autonoma de un avi on est a relacionada con las cantidades de
dos tipos de combustible x
1
y x
2
(que se pueden utilizar de manera indistinta o mezclados) mediante y = c
1
x
1
+c
2
x
2
.
Despues de realizar un experimento se obtienen los siguientes datos.
x
1
1 0 1 2 1
x
2
0 1 1 1 2
y 4 5 6 5 4
Cu ales son los mejores coecientes c
1
y c
2
en el sentido de los mnimos cuadrados?
Ejercicio 19. Consideremos el sistema
_

_
0 1
1 1
1 1
2 1
_

_
_
x
y
_
=
_
_
_
_
1
1
3
3
_
_
_
_
.
Sus ecuaciones normales de Gauss son:
_
6 1
1 4
__
x
y
_
=
_
4
8
_
.
_
6 2
2 4
__
x
y
_
=
_
2
4
_
.
_
6 2
2 4
__
x
y
_
=
_
4
8
_
.
Ejercicio 20. Consideremos los vectores v
1
, v
2
, v
3
y v
4
de R
4
y la matriz C dados por
v
1
=
_

_
1
1
2
0
_

_
, v
2
=
_

_
0
1
2
2
_

_
, v
3
=
_

_
1
1
2
3
_

_
, v
4
=
_

_
1
8
1
2
_

_
; C =
_
_
v
1
v
2
_
_
.
(a) Calcular la matriz de la proyeccion ortogonal sobre S = Gen {v
1
, v
2
, v
3
}, el vector de S mas cercano a v
4
y la
distancia de v
4
a S.
(b) Resolver, en el sentido de los mnimos cuadrados, el sistema Cx = v
3
.
124