Beruflich Dokumente
Kultur Dokumente
DE INGENIERIA INFORMA
TICA
Apuntes de
A LGEBRA
LINEAL
para la titulacion de
TICA DE GESTIO N
Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Matrices y determinantes
1.1 Notacion y definiciones . . . . . . . . . . . . . . . . . .
1.2 Aritmetica de matrices . . . . . . . . . . . . . . . . . .
1.3 Transformaciones elementales. . . . . . . . . . . . . . .
1.3.1 Transformaciones elementales fila. . . . . . . . .
1.3.2 Transformaciones elementales columna. . . . . .
1.4 Algoritmo de Gauss-Jordan. . . . . . . . . . . . . . . .
1.5 Determinante de una matriz cuadrada. . . . . . . . . .
1.5.1 Propiedades de los determinantes . . . . . . . .
1.6 Factorizacion triangular. . . . . . . . . . . . . . . . . .
1.7 Inversa de una matriz cuadrada . . . . . . . . . . . . .
1.7.1 Calculo de la matriz inversa. . . . . . . . . . . .
1.8 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . .
1.9 Ejercicios propuestos . . . . . . . . . . . . . . . . . . .
3
4
Contenido
2.3.1
2.3.2
2.4 Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . 63
2.4.1
2.4.2
2.5 Propiedades de los espacios vectoriales de tipo finito. . . . . . 75
2.6 Cambio de bases . . . . . . . . . . . . . . . . .
2.7 Espacios fundamentales asociados a una matriz.
2.7.1 Espacio columna de A. [R(A)]. . . . . .
2.7.2 Espacio fila de A: [R(AT )]. . . . . . . . .
2.7.3 Espacio nulo de A: N (A). . . . . . . . .
2.8 Teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . 84
2.9 Ejercicios resueltos .
2.10 Ejercicios propuestos
3 Aplicaciones lineales.
3.1 Definiciones y propiedades . . . . . . . . . . . . . . . . . . . . 109
3.2 Ecuaciones de una aplicacion lineal. . . . . . . . . . . . . . . . 116
3.3 Ecuaciones del nucleo y la imagen de una aplicacion lineal . . 117
3.4 Matrices equivalentes. . . . . . . . . .
3.5 Imagen inversa de una variedad lineal.
3.6 Operaciones con aplicaciones lineales. .
3.7 Ejercicios resueltos . . . . . . . . . . .
3.8 Ejercicios propuestos . . . . . . . . . .
4 Ortogonalidad.
4.1 Formas bilineales.
4.2 Producto escalar.
4.3 Ortogonalidad . .
4.4 Ejercicios resueltos
4.5 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 164
Contenido 5
Bibliografa 203
1. Matrices y determinantes
1.1 Notacion y
definiciones
Definicion 1.1
[Matriz]
aij = bij i = 1, 2, . . . , m y j = 1, 2, . . . ,
n
7
8 Notacion y Matrices y determinantes 9
definiciones
n
A = (a1 a2 an ) R1
Propiedades
Asociativa:
n
A, B, C Rm = (A + B) + C = A + (B + C
).
Conmutativa: A, B Rmn = A + B = B + A.
Elemento neutro: Existe la matriz 0 Rmn denominada matriz
nula y cuyos elementos son todos nulos, tal que
n
A Rm = A + 0 = 0 + A =
A.
A + (A) = A + A = 0
Propiedades
Producto de matrices
Propiedades:
Asociativa:
n p q
A Rm B Rn C Rp = (AB)C = A(BC
)
Distributiva:
n p
A Rm B, C Rn = A(B + C ) = AB +
AC
No conmutativa: en general, es AB = BA.
No cancelativa:
AB = AC = B = C
Para el caso de matrices cuadradas de orden n:
Trasposicio
n
Propiedades
(AT )T = A.
Xn X
n
T T T T T
(A + B) = A + B o generalizando, ( Ai ) = A
i .
i=1 i=1
Y
n Y
1
(AB)T = B T AT o generalizando, ( Ai ) T = Ai T .
i=1 i=n
A simetrica A = AT
13 Transformaciones elementales. Matrices y determinantes
13
tr (A + B) = tr A + tr B.
tr (A) = tr A.
Transformaciones Fij
Transformaciones Fi ()
Transformaciones Fij ()
Son las mismas que las transformaciones elementales fila pero operando por
columnas:
Transformaciones Cij
Transformaciones Ci ()
Transformaciones Cij ()
Procedemos despues con a22 (el elemento a22 resultante de las transfor-
maciones anteriores) al igual que procedimos con a11 anteriormente, es
decir, si a22 = 0 lo utilizamos para hacer ceros por debajo de el en
la segunda columna. Si fuese a22 = 0 vemos si existe por debajo de el
algun elemento ai2 = 0 y, en caso de haberlo, realizamos la transformaci
on F2i , etc.
Teorema 1.2 Toda matriz puede ser reducida mediante transformaciones ele-
mentales fila a una escalonada canonica.
2 2
A/
1 U = 0 12/ 2
1/
1 0 1/2 2 1
0 0 5 3 0 0 5 3
1 1/2 3/2 2 F12 ( 1 ) 1 0 2 3 1
F3 ( ) 1 0 2 3
0 1 1 2 2 0 1 1 2 5 0 1 1 2
0 0 5 3 0 0 5 3 0 0 1 3/5
1 0 0 9/5 1 0 0 9/
5
F13 (2) F23 (1)
0 1 1 2 0
1 0 7/5
0 0 1 3/5 0 0 1 3/
5
Los elementos que utilizamos para anular a los demas elementos de una
co- lumna se denominan pivotes. Si en un determinado paso del proceso de
pasar de A a U alguna columna es de ceros, diremos que el correspondiente
pivote es nulo.
Teorema 1.4 Una condicion necesaria y suficiente para que una matriz
cua- drada posea inversa es que su forma escalonada canonica sea la matriz
unidad.
Algoritmo de Gauss-Jordan
Este teorema nos permite calcular la matriz inversa, de una matriz dada,
mediante transformaciones elementales (filas o columnas, pero no ambas si-
multaneamente).
i > m ? SI STOP
j := j + 1
j > n ?
NO
NO
asi 0, SI
s >i?
aij = 0 ?
SI
NO
A:=Eis A k := i + 1
SI k > m ? NO ki aki ) A
A := E (
i := i + 1 aii
k := k + 1
1
1
F32 (1) 0 F13 (3)
0
1 1 1 0 0 1
1 0 1 0 1 0
2 0
0 1 1 1 0 0 11 =
1 1 1 0 0 1
2
A1 = 1
1 1 1
2
1
A =
1
1.5 Determinante de una matriz cuadrada.
Los determinantes nos proporcionan un metodo para el calculo de la matriz
inversa de una dada (en caso de existir) y un criterio para estudiar si una
matriz es o no invertible.
Sus aplicaciones son multiples en todas las ramas de las ciencias que tratan
problemas lineales en los que necesariamente aparecen matrices y por tanto,
determinantes.
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Regla de Sarrus
F = F23 F31 (3)F21 (2) = F21 (3)F23 F21 (2) = F21 (3)F32 (2)F23
1 0 0
F = L1 P con L1 = F21 (3)F31 (2) = 3 1 0 =
2 0 1
L= 23
2 0 1 0 1 0
1
2 0 0 1 2
3
2
0
A
5 su vez U = 0 2 0 0 1 = DU .
2
0 0 1 0 0 1
Es decir: P A = LDU .
1
3
27 Inversa de una matriz cuadrada Matrices y determinantes
27
Teorema 1.8 Una matriz es singular (det A = 0) si, y solo si, tiene una l
nea combinacion lineal de las paralelas.
Demostraci
on.
A1
det B = 0 = B 1
1 1 1 1
(AB) 1 AB = I (AB) 1 ABB = IB (AB) A=B
28 Inversa de una matriz cuadrada Matrices y determinantes
1 1 1 1
28 (AB) AA = B A (AB) 1 = B 1 A 1 .
1
Si A posee inversa A1 se verifica que det A1 = .
det A
A 1 A = I det(A 1 A) = det I =
1 1 1
det A det A = 1 = det A det A
=
A Adj AT = det A I
.
Un total de n3 n2 operaciones.
El proceso es O(n3 )
Solucio n:
0 1
2
A =
0 1
0
0 1
A = AA2 =
3
0 1
0
Probemos por induccion en n que
0 1 n
An = 0 1 n
0 0 1
Para n = 1 se verifica.
0 1 n
Si An = 0 1 n =
0 0 1
0 1 1 0 1 n
An+1 = AAn = 0 1 1 0 1 n =
0 0 1 0 0 1
0 1 n+1
= 0 1 (n + 1)
0 0 1
por lo que
0 1 n
n n Z+
A = 0 1 n
0 0 1
1
1 1
Ejercicio 1.2 Dada la matriz A = In 1 1 , probar
n .
1
1
que:
a) Es sim
etrica. b) A2 =
A.
c) tr A = n 1.
T
Solucio n: Denotemos por un = 1 1 1
1
a) A = In un uTn
n
1 T T T 1 T T 1 T
AT = (In un u n ) = In (un u n ) = In un un = A
n n n
por lo que A es simetrica.
b)
1 1 2 1
2 un uT )(In un uT ) = I 2 un uT + un uT un uT =
A = (In
n n n n n n
n n n n2
2 1 2 1
= In un uTn + 2 un n uTn = In un uTn + un uTn =
n n n n
1
= In un uTn = A = A2 = A
n
1 1
c) tr A = tr In tr (un uTn ) = n n = n 1.
n n
Solucio n: Cuando al escalonar la matriz hacemos ceros por debajo del ele-
mento a11 todos los elementos de la matriz ai j con i, j 2 solo pueden
resultar
0, 2 o 2, por lo que al desarrollar por la primera columna nos queda un de-
terminante con todos sus elementos pares y, por tanto, el determinante es
par.
Puede verse en el siguiente ejemplo
1 1 1 1 1 1
2 0
1 1 1 = 0 0 2 =
2 2
1 1 1 0 2 2
1 1 1 1
a1 a2 a3 an
a2 1
2a
2
2a
3 2
an
..
.. . . . .
n 1
a 1 na1
2
na1
3 n1
an
Demostrar que el valor de este determinante es
Y
(aj ai )
1i<jn
1
0 a2 a1
0 a (a a ) a (a a ) a a 1) =
2 2 1 3 3 (a 1 n n
..
. . . . .
a2 a1 a3 a1 an a1
a2 (a2 a1 ) a3 (a3 a1 ) an (an a1 )
=
= ..
. . . .
a2n2 (a2 a1 ) an32 (a3 a1 ) nan2 (an a1 )
1 1 1
a2 a3 an
= (a2 a1 )(a3 a1 ) (an a1 ) .. ..
. ..
.
Sol : Es conmutativo.
Ejercicio 1.6 Hallar todas las matrices cuadradas de orden 2 cuyo cuadrado
sea nulo.
33 Ejercicios propuestos Matrices y determinantes 33
!
ac a2
Sol : .
c2 ac
Sol : V,V,V,F.
Ejercicio 1.9 Demostrar que una matriz cuadrada de orden n puede des-
componerse de forma unica como suma de una matriz simetrica y otra
anti- simetrica. Realizar la descomposicion de la matriz
2 7 0
A= 5 4 1
2 5 5
Sol : A = .
1
a) A2 es simetrica.
2
b) Si B es simetrica, entonces A B es simetrica si, y solo si A B = B A.
!
1 2
Ejercicio 1.11 Hallar todas las matrices que conmutan con A = .
3 4
Sol : Las matrices escalares de orden 2.
1 2 4 1 x 1 1 x+1 1
1 1 2 1 1 x 1 1 x+1
Sol : 2, x3 3x + 2, x3 + 3x2
.
Ejercicio 1.16 Sabiendo que los numeros 23715, 23529, 21359, 19437 y
17453 son multiplos de 31, probar que el determinante de la matriz
2
2
A= 2
1
1
es divisible por 31, sin calcular el determinante.
Ejercicio 1.17 Hallar los posibles valores del determinante de una matriz A
en cada uno de los casos siguientes:
a) A es idempotente, es decir A2 = A.
Sol : a) 1, b) 1 y c) 0.
1 a a a 1 2 3 n1
a0 2 a a n1 3 3 n 1 n
a 1 2 5 n1 n
0 0 3 a
a
. . . .. . . . . . .. . .
. . . . . . . . . . . .
0 0 0 n1 1 2 3 2n 3 n
a
0 0 0 0 n 1 2 3 n1 2n 1
Sol : n! y (n 1)!.
Ejercicio 1.19 Resolver la siguiente ecuaci
on:
1+x =0
Sol : x3 (x + 4) = 0 = 0, 0, 0, 4.
2 1 0 0 0 0
1 2 1 0 0 0 1
0 1 2 1 0 0
. . . . .. . . . . . .. . . .
. . . . . . . . . . . .
0 0 0 0 2 1
0 0 0 0 1 2
Sol : n + 1 y 2n 1.
Ejercicio 1.21 Calcular los siguientes determinantes:
a b b b
a b c b a b
bb b a
b
b c a . .. .. ..
. ..
b b b a
37
38 Notacion y Sistemas de ecuaciones lineales. Espacios vectoriales. 38
definiciones
2.1 Notacion y
definiciones
Se denomina sistema de m-ecuaciones lineales con n-incognitas a un
sistema de ecuaciones de la forma:
a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2
S .
.
am1 x1 + am2 x2 + + amn xn = bm
+ y
y
Sustituyendo este resultado en la segunda ecuacion obtenemos
y 2 = 4 = y = 2
2x + 2 + 1 = 1 = x =
1
Este proceso para obtener los valores de las incognitas, se conoce con el nombre
de sustitucion regresiva.
En el primer paso hay que realizar una operacion por cada termino de
la primera ecuacion para cada una de las n 1 ecuaciones que hay debajo:
n(n 1) = n2 n operaciones.
= 2
Por lo que en total, podemos decir que el metodo de eliminacion gaussiana
es de orden O(n3 ).
Aunque no incluiremos aqu su demostracion, el orden del metodo de
Cramer es O((n + 1)!).
Resulta evidente el considerable ahorro de tiempo que supone el metodo
de eliminacion gaussiana frente a la regla de Cramer.
2.2.1 Sistemas de ecuaciones lineales homogeneos
Los pivotes se encuentran sobre las tres primeras columnas por lo que to-
maremos como variables dependientes x, y, z, resultando t la unica
variable independiente.
El sistema homogeneo es compatible; presenta infinitas soluciones que
podemos expresar, parametricamente, como
1 3
1
x = y = 2 z = 2 t =
2
am1 x1 + + amn xn = bm
podemos escribirlo de la forma:
a11 a12 a1n b1
1 . = .
x .. + x2 .. + + xn . .
am1 am2 amn bm
x1 a1 + x2 a2 + + xn an = b (2.5)
Suma de vectores.
x, y Rn = x + y Rn
Asociativa:
x, y, z Rn = (x + y) + z = x + (y + z)
Elemento neutro:
0 Rn tal que 0 + x = x + 0 x
Rn
Elemento opuesto:
Conmutativa:
x, y, z Rn = x + y = y +
x
R y x Rn = x Rn
, R y x Rn = (x) = ()x
Distributivas:
(x + y) = x + y
, R y x, y Rn = ( + )x = x + x
Elemento unidad: x Rn = 1 x = x
0 = 0 R.
x = (x + 0) = x + 0 = 0 =
0
0x = 0 x V .
x = (0 + )x = 0x + x = 0x =
0
x = 0 = = 0 o x = 0.
x = 0 y = 0 = 1 : 1 = 1
=
1 x = 1 0 = 1x = 0 = x =
0
x = y y = 0 = x = y.
x = y y = 0 = x + (y) = 0
=
1 x + 1 (y) = 0 = x + (y) = 0 = x =
y
x = x y x = 0 = = .
x = x y x = 0 = x x = 0
=
( )x = 0 = = 0 = =
()x = (x) = x.
()x = (0 )x = 0x x = 0 x = x.
(x) = (0 x) = 0 x = 0 x = x.
1 x1 + 2 x2 + + k xk =
0
u1 = 11 v1 + +
1p vp
.
un = n1 v1 + +
np vp
X
n
Entonces, como i ui = 0 i = 0 i = 1, 2, . . . , n por ser B un
i=1
sistema libre se tiene que
1 (11 v1 + + 1p vp ) + + n (n1 v1 + + np vp ) = 0
0
los coeficientes de v1 , v2 , . . . , vp han de ser nulos por ser B otra base,
y por tanto
1 11 + + n n1 = 0
.
1 1p + + n np =
0
Como n > p el sistema homogeneo es compatible, por lo que
admite solucion (1 , 2 , . . . , n ) distinta de la trivial, lo que contradice
el hecho de que i = 0 i = 1, 2, . . . , n.
Deducimos pues que n > p o lo que es lo mismo, que n p
Teorema 2.4 Las coordenadas de un vector respecto de una base son unicas.
Demostraci n. Sea V un espacio vectorial definido sobre un cuerpo K y
consideremos una base B = {u1 , u2 , . . . , un } de dicho espacio.
Xn
x V x = xi ui donde (x1 , x2 , . . . , xn ) son unas coordenadas de x
i=1
respecto de la base B.
Supongamos que existieran otras coordenadas (y1 , y2 , . . . , yn ) de x
respecto de la misma base B, es decir
X
n
x= yi ui
i=1
X
n nX n X
Entonces, x x = xi ui yi ui = (xi yi )ui = 0 y al ser {ui }i=1, 2,..., n
i=1 i=1 i=1
un sistema libre, xi yi = 0 i, por lo que xi = yi i = 1, 2, . . . , n.
Es decir, las coordenadas de un vector respecto de una base son unicas.
Definicion 2.9 [Base cano nica]
De entre todas las bases del espacio vectorial (Rn , +, ) hay una que recibe
el nombre especial de base canonica y suele denotarse por
e1 = (1, 0, 0, . . . , 0)
e = (0, 1, 0, . . . , 0)
C = {e1 , e2 , . . . , en } .. 2
siendo
en = (0, 0, 0, . . . , 1)
x1 e1 + x2 e2 + . . . +
xn en
X n
Es un sistema libre de vectores pues de xi ei = 0 (vector nulo) se
i=1
deduce que
(x1 , x2 , . . . , xn ) = (0, 0, . . . , 0) x1 = 0, x2 = 0, . . . , xn = 0
Dado que B es una base y por tanto un sistema libre, la expresion anterior
es equivalente al sistema
1 x11 + 2 x21 + . . . + m xm1 = 0
x
1 12 + 2 x22 + . . . + m xm2 = 0
. . . .
1 x1n + 2 x2n + . . . + m xmn = 0
que podemos expresar de la forma
x11 x21 xm1 0
1 x12 2 x22 .
m xm2 .0
+ + + =
. . . .
x1n x2n xmn 0
As pues, los vectores {x1 , x2 , . . . , xn } son linealmente independientes si, y
solo si, lo son los vectores de Rn :
{(x11 , x12 , . . . , x1n ), (x21 , x22 , . . . , x2n ), . . . , (xm1 , xm2 , . . . , xmn )}
X
n
despejando xi resulta xi = k xk xj con lo que tendramos que
k=1
k=i
xi es combinacion de los demas, lo cual contradice nuestra hipotesis
de que era independiente de los dem s.
rgf A = rgc A
Demostraci
on.
Podemos entonces hablar de rango de una matriz sin especificar si se trata del
rango fila o del rango columna y lo representaremos por rg A.
Por otra parte ha quedado demostrado que el rango de una matriz coincide
con el numero de pivotes en cualquier forma escalonada obtenida a partir
de dicha matriz.
rg A = rg AT
Demostraci n. rg AT = rgf AT = rgc A = rg A
i=1
L subespacio vectorial de V x L y K = x L
Demostraci n.
x, y L = x + y
L
x L y K = x L
Ejemplo 2.5
b) L = {x = (, ) : R} es subespacio vectorial de R2 .
c) L = {x = (, 3) : R} es subespacio vectorial de R2 .
Definicion 2.13 [Variedad lineal engendrada por un conjunto
de vectores]
k
X X
x= i xi y= j yj
i=1 j=1
de donde
X
k pX kX p X
x + y = i xi + j yj = (i )xi + (j )yj ,
i=1 j=1 i=1 j=1
Propiedades
Sea V Rn un espacio vectorial y sean H, H 0 V . Se cumplen:
H L (H ).
x H como 1 R = 1 x = x L (H ) = H L (H )
H H 0 = L (H ) L (H 0 ).
kX
x L (H ) = x = i xi con xi H H 0 =
i=1
X
k
x= i xi con xi H 0 = x L (H 0 ) = L (H ) L (H 0 )
i=1
L (L (H )) = L (H ).
H L (H ) = L (H ) L (L (H
))
X
p
xi L (H ) = xi = ij xj con xj H
j=1
X
k X
p pX kX pX
x= i ij xj = ( i ij )xj = j xj con xj H
i=1 j=1 j=1 i=1 j=1
L (L (H )) = L (H
).
Interseccio n
x, y L2 = x + y L2
Supongamos x L1 e y L2 (y 6 L1 , x 6 L2 ). Entonces, x + y 6 L1 y
x + y 6 L2 por lo que x + y 6 L1 L2 y por tanto, L1 L2 no es una variedad
lineal.
Suma
L = L1 + L2 = {x1 + x2 : x1 L1 y x2
L2 }
Propiedades
x, y L = z = x + y L = L1 + L2
L
Recprocamente si L1 + L2 L
x L1 = x = x + 0 con x L1 0 L2 = L1 L1 + L2 L
y L2 = y = 0 + y con 0 L1 y L2 = L2 L1 + L2 L
Suma directa
Como x1 y1 L1 y x2 y2 L2 , x1 y1 = x2 y2 L1 L2 = {0}
x1 y1 = x2 y2 = 0 x1 = y1 , x2 = y2
y por tanto, la descomposicion es unica.
Recprocamente si la descomposicion es unica, como
(
x = x + 0 con x L1 0 L2
x L1 L2 x = x + 0 = 0 + x x = 0 + x con 0 L1 x L2
X
r nX
x L = x = i ui x L V = x = xj vj
i=1 j=1
n= 1 an1 + + r anr
x
de donde
x1 = 1 + 3
x2 = 21 2
Ecuaciones parametricas de L.
x3 = 1 + 2 3
x4 = 2
x5 = 3
Observese que las ecuaciones parametricas no unicas, dependen de las
son
bases elegidas. Por ejemplo, otra base de L esta formada por las filas no
nulas y finales de la matriz escalonada resultante:
0
B = {(1, 2, 1, 0, 0), (0, 1, 1, 1, 0), (0, 0, 4, 2, 1)},
por lo que podemos elegir libremente la base que mejor nos convenga. Vamos
a hallar ahora unas ecuaciones implcitas a partir de las anteriores ecuaciones
parametricas:
1 0 1 x1 1 0 1 x1
2 1 0 x2 F21 (2) 0 1 2 x 2 2x 1
F32 (1)
1 1 1 x3 0 1 2 x3 x1
0 1 0 x4 F31 (1) 0 1 0 x4 F42(1)
0 0 1 x5 0 0 1 x5
1 0 1 x1
0 1 2 x2 2x1
2F4 + F3
0 0 4 3x1 + x2 + x3
0 0 2 2x1 + x2 + x4 4F5 + F3
0 0 1 x5
1 0 1 x1
0 1 2 x2 2x1 7x1 + 3x2 + x3 + 2x4 = 0
0 0 4 3x1 + x2 + x3
3x1 + x2 + x3 + 4x5 = 0
0 0 0 7x + 3x + x + 2x
1 2 3 4
0 0 0 3x1 + x2 + x3 + 4x5
Estas dos ultimas son unas ecuaciones implcitas de L.
Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec-
tores del sistema generador de L1 son linealmente independientes y por tanto
constituyen una base de L1 . A partir de esta base obtenemos las ecuaciones
parametricas
x 1 = 1
x2 = 1 + 2
Las ecuaciones parametricas de L1
son x 3 = 2
x4 = 1
(
x3 = 0
Las ecuaciones implcitas de L2
son x2 x4 = 0
Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec-
tores del sistema generador de L2 son linealmente independientes y por tanto
constituyen una base de L2 . A partir de esta base obtenemos las ecuaciones
parametricas
x1 = 1
x2 = 2
Las ecuaciones parametricas de L2
son x3 = 0
x4 = 2
1 1 0
0 1 1
0 0 1 0 0 0 1 0
0 0 1 0 F43 (1) 0 0 0 0
x1 x2 + x3 = 0
Las ecuaciones implcitas de L1 L2 x2 x3 x4 = 0
son x3 = 0
1 0 1 0 x1 1 0 1 0 x1
0 1 1 1 x2 x1 0 1 1 1 x2 x1
0 0 1 1 x3 x2 + x1 0 0 1 1 x3 x2 + x1
0 0 1 1 x4 x1 F43 (1) 0 0 0 0 x4 + x3 x2
{u1 , u2 , . . . , uk }
Este proceso podra continuarse n k veces, por lo que podran encontrarse los
n k vectores indicados.
r p
X X
0= xx = i ui j vj y como {u1 , . . . , ur , v1 , . . . , vp } es un sistema
i=1 j=1
libre, 1 = = r = 1 = = p = 0 x = 0 H1 H2 = {0}.
B2 = {u1 , u2 , . . . , ur , b1 , . . . , bmr }
b) B genera a H1 + H2 ya que
x H1 + H2 = x = u + v con u H1 v H2 =
u = 1 u1 + + r ur + r+1 a1 + + n anr
=
v= u ++ u + b ++ b
1 1 r r r+1 1 m mr
X
r nr a + mr
X i i X i bi =
x= (i + i )ui +
i=1 i=r+1 i=r+1
i=1
0
Como B = {v1 , v2 , . . . , vn } V podemos expresar cada uno de los vectores de
0
B en funcion de la base B, es decir, (a1j , a2j , . . . , anj B seran las coordenadas
)
de vj respecto de la base B.
n n n ! !
X X X nX Xn Xn
x= i ui = j v j = aij = aij ui =
j ui j
i=1 j=1 j=1 i=1 i=1 j=1
X
n
i = aij j i = 1, 2, . . . , n
j=1
o en forma matricial,
1 a11 1
a1n
. = . .. . . es decir x = P x
B 0
B B B
0
n an1 ann n
donde P B 0 B R nn
es la matriz del cambio de bases, llamada tambien matriz
de paso, xB es el vector de coordenadas referido a la base B y xB0 el vector de
0
coordenadas referido a la base B . Observese que las columnas de la matriz
PB0 B estan formadas por las coordenadas de cada vector de B 0 respecto de la
base B.
donde v1 = u1 2u2 + u3 , v2 = u1 u3 , v3 = u2 + u4 , v4 = u2 +
u3 . Dado que
v1 = u1 2u2 + u3
v1 = (1, 2, 1, 0)B
=
v2 = u1 u3 v2 = (1, 0, 1, 0)B
=
v3 = u2 + u4 =
v3 = (0, 1, 0, 1)
B
v4 = u2 + u3 =
v4 = (0, 1, 1, 0)
B
1 0
x 1 1 0 0 x1
= 2
x2 0 1 1 x20
1 1
x3 0 1 x30
x4 0 0 1 0 x04
Si x tiene de coordenadas (1, 2, 0, 1)B , sus coordenadas respecto de la base
0
B las calcularemos resolviendo el sistema
1 1 1 0 0 x0
2 = 2 0 1 1 x120 =
0 1 1 0 1 x30
x
1 0 0 1 0 0
4
1/ 2
x10 1 1 0 0 1
1 3
x0 /
2 = 2 0 1 1 2 2
0 =
x3 1 1 0 1 0 1
x04 0 0 1 0 1 2
0
Es decir, las coordenadas de x respecto de la base B son
x = ( 1/2, 3/2, 1,
2) B0
0
Las coordenadas, respecto de la base B del vector x que respecto a la base B
tiene coordenadas x = (0, 0, 1, 1)B0 vendran dadas por
x1 1 1 0 0 0 0
x2 = 2 0 1 1 0 = 0
x3 1 1 0 1 1 1
x4 0 0 1 0 1 1
x = (0, 0, 1, 1)B
R(A) = < a1 , a2 , . . . , an
>
Ejemplo 2.9
1 3 3 2 1 3 3 2 1 3 3 2
A= 2 6 9 5 0 0 3 1 0 0 3 1 =U
1 3 3 0 0 0 6 2 0 0 0 0
Ejemplo 2.10 El espacio fila de la matriz A del Ejemplo 2.9 tiene dimension
2 y una base viene dada por
Cuando hemos definido los espacios fila y columna de una matriz A hemos
dicho que eran los espacios generados por las filas y las columnas de A respec-
tivamente, es decir, son espacios vectoriales por definicion.
No ocurre lo mismo cuando definimos el espacio nulo, ya de la definicion
nos lleva a preguntarnos
A(x + y) = Ax + Ay = 0 + 0 =
0
N (A) = N (U
)
Ejemplo 2.11 Para hallar una base del espacio nulo de la matriz del Ejem-
plo 2.9 habamos visto
que 1
x
1 3 3
x2
U= 0 0 3 = 0 =
x3
0 0 0 0 0 0 0 0
x4
(
x1 + 3x2 + 3x3 + 2x4 = 0
Las ecuaciones implcitas de N (A)
son 3x3 + x4 = 0
am1 x1 + + amn xn = bm
b. b) Si rg A = r = dim N (A) = n r.
Demostracion.
Observaciones
De b) se deduce que
Solucio n:
a) Para que existan dicha matrices debe verificarse que
! ! !
1 2 b11 0
! ! ! =
1 2 3 b21 0
b11 b12 0 0
m
= = ! ! !
3 m b21 b22 0 0
1 2 b12 0
=
3 m b22 0
1 2
= 0 = m = 6
3 m
e incompatibles si m = 6, por lo que solo existiran matrices B no nulas
si m = 6.
b) Sean B1 y B2 dos matrices cuadradas de orden dos tales que
AB1 = AB2 = 0
Para cualesquiera que sean , R se tiene que
A(B1 + B2 ) = AB1 + B2 = 0 + 0 =
0
por lo que B1 + B2 es una matriz del mismo tipo y, por tanto, dichas
matrices constituyen una variedad lineal de las matrices cuadradas de
orden 2.
Ejercicio 2.2 Se dice que una matriz M R33 es magica si las ocho sumas
siguientes son iguales:
X
3
aij (j = 1, 2, 3)
i=1
87 Ejercicios resueltos Sistemas de ecuaciones lineales. Espacios vectoriales. 87
Designando por s el valor de estas sumas y por M (s) a las matrices corres-
pondientes:
Solucio n:
0 0 8 6 0 0 0 2
6 1 3 1
9 1 4 1
PB0 B00 = B 1
2 B1 =
1 0 0 0
10 1 5 2
Ejercicio 2.6 Sea B = {u, v, w} una base del espacio vectorial V . Sean
u0 = 2u v + w, v 0 = u + w y w0 = 3u v + 3w.
6) Se pide:
Solucio n:
a) x L = x = (x1 , x2 , x3 , x4 ) = 1 u1 + 2 u2 + 3 u3 + 4 u4 =
1 2 3 2 1 x2
2 4 6 4 2 = x 2
1 0 1 4 3 x3
3 2 5 6 4 x4
Escalonando la matriz ampliada obtenemos
1 2 3 2 x1 1 2 3 2 x1
2 4 6 4 x2 0 0 0 0 x2 + 2x1
1 0 1 4 x3 0 2 2 6 x3 x1
3 2 5 6 x4 0 4 4 12 x4 3x1
1 2
0 0
0 2
0 0
por lo que las ecuaciones implcitas de L son
( (
x2 + 2x1 = 0 2x1 + x2 = 0
=
(x4 3x1 ) 2(x3 x1 ) = 0 x1 + 2x3 x4 = 0
b) Al tratarse de una variedad de R4 con dos ecuaciones implcitas,
u1 = (1, 0)
u2 = (0, 1)
u3 = u1 + u2 = (1, 1)
u4 = 4u1 + 3u2 = (4, 3)
1
1 3 0
= = 2=0
1 0 2
2
una base ampliada es B = {e1 , e2 , u1 , u2 }.
de donde
5 3
x5 = t x4 = t x2 = t x1 =
2 2
t
o bien, haciendo t = 2, las ecuaciones parametricas de L son
x1 = 2 x2 = 3 x3 = x4 = 5 x5 = 2
= 0, = 1 = (0, 0, 1, 0, 0)
= 1, = 0 = (2, 3, 0, 5, 2)
Una base de L es, por tanto, BL = {(0, 0, 1, 0, 0), (2, 3, 0, 5,
2)}. Dado que
1
0
1 0
0 0 0 0 1 = 5 = 0
=
0 5
0 0 1 0 0
2 3 0 5 2
0
L =< e1 , e2 , e5 >
a) F
= 1,
= 0,
= 0,
Una base de F viene dada por
b) G
1 0 0 1 0 1 0 0 1 0
0 1 1 4 1 0 1 1 4 1
=
0 0 1 1 1 0 0 1 1 1
0 0 6 6 6 0 0 0 0 0
solo los tres primeros vectores son linealmente independientes, por lo que
una base de G es
BG = {v1 , v2 , v3 } y dim G = 3
De la expresion x = v1 + v2 + v3 obtenemos las ecuaciones pa-
rametricas
x1 = + x2 = + x3 = x4 = + 4 4 x5 =
1 0 1
0 1 1
0 0 1
0 0 1
0 0 1
por lo que las ecuaciones implcitas de G son
(
x1 + 3x2 + x3 + x4 =
0
x3 x5 = 0
c) F G
1
0
1
0
1
0
=
0 0
0 0
solo las tres primeras son independientes, obteniendose que las ecuaciones impl
citas de F G son
x1 + x2 + x3 x4 =0
2x2 + x3 + 2x4 x5 = 0
x3 + x5 = 0
= 1,
= 0,
por lo que una base de F G es
BF G = {(2, 1, 0, 1, 0), (1, 0, 1, 0, 1)}
d) F + G
3 2 4 1 4 0
1
2
1
1 0 0 1 0 1 0 0 1 0
0 1 1 4 1 0 1 1 4 1
0 0 6 6 6 0 0 1 1 1
0 0
0 0
0 0
1
0
0
0
0
0
Es decir, una base de F + G es
x1 = x2 = x3 = + x4 = + 4 + x5 = +
1
0
0
0
0
999Ejercicios propuestos Sistemas de ecuaciones lineales. Espacios vectoriales. 99
9
1
0
0
0
0
1 0
0 1
0 0
0 0
0 0
de donde x5 x2 (x4 + x1 + 4x2 + x3 x2 ) = 0, es decir, la ecuacion
implcita de F + G es
x1 + 4x2 + x3 + x4 x5 = 0
Sol :
Sol :
Si m = 5 Incompatible.
101Ejercicios propuestos Sistemas de ecuaciones lineales. Espacios vectoriales.101
101 101
2+
2
Si = 6 3 2 Comp. det. con (x, y, z) = ( , ( 2 + 1), ).
2
Ejercicio 2.16 De un sistema de tres ecuaciones lineales con tres incognitas
se sabe que admite las soluciones (1, 0, 0), (0, 1, 0), (0, 0, 1) y que ademas
uno de los coeficientes del sistema es no nulo. Hallar, en funcion de los
parametros que sean necesarios, todas las soluciones del sistema.
Sol : (x, y, z) = (1 , ,
).
Si = 24 Incompatible.
Sol : a = 3/5.
Sol :
Sol : rg A = rg B = rg C =
2.
b) Probar que si B = {(0, 1, 0), (0, 1, 1)} y C = {(0, 1, 1), (0, 1, 2), (0, 2, 1)}
entonces A = L (B) = L (C ).
Sol : Para ver que A es una variedad lineal de R3 basta ver que cualquier
combinacion lineal de vectores de A tambien pertenece a A. Para probar
que A = L (B) = L (C ) basta ver que las tres son variedades de
dimension 2 generadas por los vectores e2 y e3 de la base canonica de R3 .
A = {(1, 0, 1)}, B = {(1, 0, 0), (0, 1, 1)} y C = {(1, 0, 0), (0, 0, 1)}
Ejercicio 2.26 Sea Pn [x] el conjunto de los polinomios de grado menor o igual
que n con coeficientes reales.
a) Demostrar que Pn [x] es un R-espacio vectorial.
Probar que forman una base de R4 y hallar, respecto de ella, las coordenadas
de v = (1, 1, 1,
1).
a) u = (3, 1, 0)
(
x1 2x2 + 5x4 = 0
Sol : L1 x1 + x2 + x3 2x4 = 0, L2 x2 + x3 3x4 = 0
u1 = (3, 3, 1, 1)
v1 = (2, 2, 0, 1)
Hallar las ecuaciones de F G y de F + G.
(
x1 3x2 + 4x4 = 0
Sol : F G F + G = R4.
x3 = 0
Sol :
a) Si = 1 y = 1 0 = 1 y = 1 L1 L2 = {0} y Li + L2 = R4 .
b) Si = 1 y = 1 L1 L2 = {0} L1 + L2 x1 x2 + x4 = 0 con
B L1 +L2 = {(1, 1, 0, 0), (0, 1, 0, 1), (0, 0, 1, 0)} y dim(L1 + L2 ) =
3.
c) Si = 1
y = 1 B L1 L2 = {(9, 13, 2, 4)} y dim(L1 L2 ) = 1 con
x1 + x2 + x4 = 0 y L1 + L2 = R4 .
L1 L2 2x3 + x4 = 0
4x1 + 2x2 x3 3x4 = 0
Sol :
Una aplicacion f entre dos conjuntos X e Y es cualquier regla que nos permite
asignar a cada elemento x del conjunto inicial X un unico elemento y del
conjunto final Y . Se denota por f : X Y .
x = y = f (x) = f (y)
Inyectiva si
109
Definiciones
1101 y propiedades Aplicaciones lineales.1101
10 10
, K y x, y V = f (x + y) = f (x) + f (y).
Demostraci n.
Homomorfismo si U = V .
Endomorfismos si U = V .
Isomorfismos si U = V y f es biyectiva.
Automorfismos si U = V y f es biyectiva.
Ejemplo 3.1
f [(a, b, c) + (a0 , b0 , c0 )] = f (a + a0 , b + b0 , c + c0 ) =
= (2(a + a0 ), b + b0 ) =
= (2a, b) + (2a0 , b0 ) =
= (2a, b) + (2a0 , b0 ) =
= f (a, b, c) + f (a0 , b0 , c0 )
por lo que f es un homomorfismo (vease el Teorema
3.1).
Ker f = {x U : f (x) = 0} = f
1
(0)
2) Si U es un subespacio vectorial de E, f (U ) lo es de E 0
x, y f (U ) = u, v U : f (u) = x, f (v) =
y
, K dado que u, v U = u + v U
=
f (U ) es un subespacio vectorial de E 0 .
3) Si V es un subespacio vectorial de E 0 , f 1 (V ) lo es de E
1
x, y f (V ) = {x E : f (x) V } = f (x), f (y)
V
f 1 (V ) es un subespacio vectorial de E.
i = 0 por lo que
x f (E) = y E : f (y) = x
X
n n X n X
y E = y = i ui = x = f (y) = f ( i ui ) = i f (ui )
=
i=1 i=1 i=1
Demostraci n.
rg f = dim(Img f )
El rango de una aplicacion lineal f es, por tanto, el rango del conjunto
de vectores {f (u1 ), . . . , f (un )} donde {u1 , . . . , un } constituye una base de U
.
Demostraci n.
Si f es inyectiva: f (x) = 0 )
f (0) = 0 = f (x) = f (0) = x = 0 =
x Ker f =
Ker f = {0}
Si Ker f = {0}
f (x) = f (y) = f (x y) = 0 = x y Ker f
=
= x y = 0 = x =
y
f es inyectiva.
Teorema 3.5 Una aplicacion lineal f : U V es inyectiva si, y s lo si,
cualquier sistema de vectores linealmente independientes de U se transforma
mediante f en un sistema linealmente independiente de vectores de V .
Demostraci n.
Por ser para cualquier sistema libre, ha de verificarse para {u} con u = 0.
Al ser {f (u)} un sistema libre es f (u) = 0 = u 6 Ker f de donde
se
deduce que
u = 0 = u 6 Ker f Ker f = {0}
=
f es inyectivo.
Teorema 3.6 [Caracterizacio n de las aa.ll. sobreyectivas]
Demostraci n.
Ker f + H = U Ker f H =
{0}
1 b1 + + nr bnr Ker
f
Como ademas 1 b1 + + nr bnr H se tiene que
Xn X
n nX
f (x) = f ( xi ui ) = f (xi ui ) = xi f (ui )
i=i i=i i=i
x U = i=1 i=1
mX
i=1 j=1
f (x) V = 0
x0 = f (x) = j x vj
j=1
m n
X
m
X n m
X XX
j vj = xi aij vj ( xi aij )vj =
0
x =
j=1 i=1 j=1 j=1 i=1
0
x1 = a11 x1 + a21 x2 + an1 xn
X
n
x0 = a12 x1 + a22 x2 + an2 xn
0
xj = aij xi 1 j m = 2
.
i=1 m
1m 1 2m 2 nm n
x0 = a x + a x + a x
que expresado en forma matricial queda
x10 a11 a21 x1
x02 x2
an1
a12 a22
a
. = n2 . . x0 = Ax
. .. .
.
. . . . .
x0m a1m a2m anm xn
f (1, 0, 0, 0) = (2, 0,
1) f (0, 1, 0, 0) = (1,
3, 1) f (0, 0, 1, 0) =
(0, 0, 0) f (0, 0, 0, 1) =
(0, 0, 0)
tiene de ecuaciones
1
x
x10 2 1 0 0 x
2
0
x = 0 3 0 0
0 x3
x3 1 1 0 0
x4
siendo
dim(Img f ) = rg f = rg A = 2
dim(Ker f ) = dim R4 rg A = 4 2 = 2
Matrices
1191 equivalentes. Aplicaciones lineales.1191
19 19
1 1
0 3
0 1
Es decir, las ecuaciones implcitas de Ker f son
(
x =0
Ker f x21 = 0
Dos matrices cuadradas A y B, del mismo orden, se dice que son semejantes
si existe otra matriz regular P tal que
1
B =P AP
Teorema 3.10 Dos matrices cuadradas son semejantes si, y solo si, est
an asociadas a un mismo endomorfismo.
121Imagen inversa de una variedad lineal. Aplicaciones lineales.121
121 121
1
xf (L) f (x) = y L 3y1 y2 = 0
=
122Imagen inversa de una variedad lineal. Aplicaciones lineales.122
122 122
3(2x1 x2 ) (x1 + x3 ) = 0 = 7x1 3x2 x3 = 0
=
1
f (L) 7x1 3x2 x3 = 0
Matricialmente tendramos:
x1 ! 2x1 x2 !
y1
Ax = y A x2 = x1 + x3
y2
=
x3
! ! x1
y1 2 1 0 y = Ax
= x2
y2 1 0 1
x3
y1 !
L 3y1 y2 = 0 3 1 y2 = 0 By = 0
por lo que
By = B(Ax) = 0 = (BA)x = 0 =
!
x1 x1
2 1 0
3 1
x = 0 = 7 3 1 =0
x 2 2
1 0 1
x3 x3
Es decir: f 1 (L) 7x1 3x2 x3 = 0.
Demostraci n.
(f + g)(u + v) = f (u + v) + g(u + v) =
= f (u) + f (v) + g(u) + g(v) =
= [f (u) + g(u)] + [f (v) + g(v)] =
= [(f + g)(u)] + [(f + g)(v)]
(f )(u) = f (u) u
U.
f (1, 0, 0, 1) = (0, 0,
0) f ( 1, 3, 2, 0) = (0, 0,
0) f ( 0, 0, 1, 0) = (1, 1,
1) f ( 0, 0, 0, 1) = (0, 2,
1)
Es decir
0 0 1 0
= 0 0 1 2 =
A
0 2 1 0 0 0 1 1
1 0 0 1
1
1 1 0 0
0 0 1 0
A= 0 0 1 2
=
0 0 1 1
0 2/3 1 0
A = 2 0 1 2 siendo x0 = Ax
1 1 1 1
f (v1 )
f (v2 )
f (v3 )
xV = x = x1 v1 + x2 v2 + x3 v3
x = f (x) W = x0 = 1x0 w1 + 2x0 w2 + 3x0 w3 +4x0 w4
0
2x1 + 4x3 = 0
x1 + x2 x3 = 0
x1 2x2 =0
x1 + x2 + 3x3 = 0
2 0 4 1 0 2 1 0 2 1 0 2
1 1 1 1 1 1 0 1 1 0 1 1
1 2 0
1 1 3
es decir, las ecuaciones implcitas de Ker f son
(
x + 2x = 0
Ker f x21 + x33 = 0
x1 = 2 x2 = x3 =
canonicas, se verifica ! !
que 2 1 0 2 1 0
ABB0 (e1 e2 e3 ) = = ABB0 I = 0 0 3
0 0 3
es decir 2 1 0 ! 0
A 0 = con xB0 = ABB0 xB
BB 0 0 3
0
b) Sabiendo que el cambio de base de la base B 0 a la base can nica B viene
dado por !
0
0 1 0 = xB0
xB0
2 1
x0 0
1 0 1
!1 1 0 3
0 1 0
x0B0 = ABB0 2 1 1 xB xB0 = A
BB 0
xB
2 1
1 0 1
es decir
!
!
0 1
ABB0 = =
2
1
!
3/2 1/ 1
= 2
0 1 5
3. Se pide:
Solucio n:
x1 = 2 x2 = x3 =
= 1, = 0 = (2, 1, 0)
= 0, = 1 = (1, 0, 1)
es decir, una base del nucleo
es
x1 = x2 = 2 x3 = 3
y las ecuaciones implcitas
( 2x1 x2 = 0
3x1 x3 = 0
Img f
3. g(0, 0, 1) = (1, 1, 1)
4. Ker g f x1 x2 + x3 2x4 = 0
Determinar:
a) f , g y g f .
Solucio n:
a)
( x10 = 2
x10 2x20 = 0
L = x20 = = B L = {(2, 1, 1)}
x02 x30 = 0 x30 =
1
(1, 0, 0, 1) f (L) = f (1, 0, 0, 1) L = f (1, 0, 0, 1) = (2, , )
f (1, 0, 0, 1) = (2, , ) = f (e4 ) = (2 1, 2, + 3)
)
f (1, 0, 0, 0) = (1, 2, 3)
Podemos decir por tanto, que
1 2 1 2 1
Af = 2 1 3 2
3 3 3 + 3
x1 = x2 = x3 =
x1 = x2 = x3 = x4 =
Solucio n:
x1 = x2 = x3=
3 = 2 + 1 dim(L1 L2 ) = dim(L1 L2 ) = 0 = L1 L2 =
{0}
por lo que la suma es directa, es decir
L1 L2 = R3
f (1, 1, 0) = (, , )
b) f (L1 ) L2 =
f (0, 0, 1) = (, , )
c)
1
+1
d) )
(1, 1, 1) Ker f =
1 1 1 1 0 3
0 1 0 2
= 0 =
+ 1 1 1 1 0 1
+ 1 0 3 (
+=0
+ = 0 2 +=2
=
+ + 1 0 1
es decir, = 1 y = 1, por lo que la solucion es unica
2 1 1
Af = 1 0 1
0 1 1
137Ejercicios propuestos Aplicaciones lineales.137
137 137
= 1 = 0 = (1, 3, 0)
f 1 (L1
= B) = {(1, 3, 0), (2, 0, 3)}
= 0 = 1 = (2, 0, 3)
Como un sistema generador de f (L2 ) esta constituido por los
transfor- mados de una base de L2 y esta solo tiene al vector (1,
1, 1) que se transforma mediante f en
2 1 1 1 2
1 0 1 1 = 0
0 1 1 1 2
B f (L2 ) = {(1, 0,
1)}
f (x, y, z) = (2x + y, z, 0)
b) Hallar el rango de f .
Sol :
1
1 .
a) x0 = Ax con A =
1 2 4
1 3 9
b) (1, 2, 7, 16).
Ejercicio 3.9 Sea f el endomorfismo de R3 tal (que Ker f viene dado por
x1 + x3 = 0
x1 + x2 + x3 = 0 y unas ecuaciones de Img f x2 = 0 respecto de
son
una base B de R3
b) Determinar f 2 .
1 1 1
0 0 0 0 y f 2 es el
Sol : Las ecuaciones de f son x = Ax con A =
1 1 1
endomorfismo nulo.
Sol :
= 0. b) f 1 (L) 2x1 + x2 + x3 = 0.
c) f 1 (L) = R3 .
b) f es automorfismo a R.
d) a = 0.
1. f (x1 , x2 , x3 ) = (x1 + x3 , x1 x2 + x3 , x2 )
2. g(1, 0, 0) = (1, 1, 1)
. Se pide:
cano-
nica, y una base de Ker f g.
1 1 1 2 2 2
Sol : Ag = 1 1 1 , Af g = 1 1 1 ,
1 1( 1 1 1 1
x1 2x2 = 0
Img f g x2 x3 = 0 , B Ker f g = {(1, 1, 0), (1, 0, 1)}
L =< (1, 4, 1, 1), (2, 3, 2, 3) > R =< (0, 1, 0, 0), (1, 0, 1, 2) >
x2 x4 = 0
M =< (1, 1, 1, 3), (3, 2, 3, 4), (3, 2, 3, 4) > K
: 2x2 + 3x4 = 0
f : R4 R3 , f (x1 , x2 , x3 , x4 ) = (x1 + x2 , x1 + x3 , x2 + x4 )
0 1
1 3
b) Hallar una base de Ker f2 .
d) Dada la base de R3 , B = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}, hallar la matriz
de
f1 respecto a la base canonica de R4 y B de R3 .
(
= 0 = biyectiva
Sol : = 0 = solo B Ker f2 = {(2, 4, 1, 4)},
sobreyectiva
0 1 1/2 1/
2
CB
f0 (L) =< (1, 0, 0), (0, 0, 1) >, A (f1 ) = 0 0 1 /
1/ 2 2
1 0 1 /2 /2
1
Para los vectores geometricos hay otros conceptos como los de longitud
o norma, angulo de dos vectores, etc., que no se contemplan al hacer la
an- terior abstraccion y que, por tanto, hasta ahora no tienen significado
alguno en un espacio vectorial abstracto.
145
146Pro ducto escalar. Ortogonalidad.
1461 4 6 1 4 6
Sea V un espacio vectorial real. Una forma bilineal b sobre V es una aplicacion
b : V V R tal que:
0 0
b(x + x , y) = b(x, y) + b(x , y)
x, y, x0 , y 0 V 0 0
= b(x, y + y ) = b(x, y) + b(x, y )
R
b(x, y) = b(x, y) = b(x, y)
y en forma matricial
b(u1 , u1 ) b(u1 , u2 ) b(u1 , un ) y1
b(u2 , u1 )
b(u2 , u2 ) b(u2 , un )
y 2
b(x, y) = ( x1 x2 xn ) ..
. .. .
. .
b(un , u1 ) b(un , u2 ) b(un , un ) yn
b(x, y) = xT A y
.
siendo A = b(ui , uj ) 1i,jn
X
n nX n X
h x, y i = h xi ui , xj uj i = xi yj h ui , uj i
i=1 j=1 i,j=1
por lo que el producto escalar queda determinado si, y solo si, se conocen los
c productos h ui , uj i = aij de los vectores de la base B, siendo
nX
h x, y i = xi aij yj = xT
Ay
i,j=1
donde
h u1 , u1 i h u1 , u2 i h u1 , un i
h u2 , u1 i h u2 , u2 i h u2 , un i
A=
... .
. . .
h un , u1 i h un , u2 i h un , un i
Dicha matriz A recibe el nombre de matriz de Gram correspondiente al pro-
ducto escalar considerado respecto de la base B.
Demostraci n.
y V (A z)T y = 0 z T AT y = z T A y = h z, y i = 0
Desigualdad de Cauchy-Schwartz:
x, y V = |h x, y i| kxk kyk
Desigualdad de Minkowski:
x, y V = kx + yk kxk + kyk
x, y V = kxk kyk kx yk
Demostraci n.
Si x y
kx + yk2 = h (x + y), (x + y) i = h x, x i + h x, y i + h y, x i + h y, y i
Como h x, y i = h y, x i
kx + yk2 = h x, x i + 2h x, y i + h y, y i = kxk
2
+ 2h x, y i +2 kyk
Dado que, por hip tesis es
se obtiene que
h x, y i = 0 = x y.
h x, y i = 0 x H y y H
0
X
n mX n X
m X
h y, z i = h i xi , jj x0 i i=1
= i j hj xi , x0 i
i=1 j=1 j=1
(
i = 1, 2, . . . , = h y, z i = 0
H H 0 = h xi , xj 0 i =
0 n
y por tanto, L (H ) L (H 0 ).
j = 1, 2, . . . , m
Teorema 4.7 Sea [V, h i] un espacio vectorial eucldeo y H V una variedad
lineal de V . El conjunto H ortogonal de H es otra variedad lineal de V
que llamaremos subespacio ortogonal de H o variedad ortogonal a H .
Demostraci n. Para cualesquiera que sean los vectores x1 , x2 H y los
escalares , R se tiene que
y H = h x1 + x2 , y i = h x1 , y i + h x2 , y i = 0 + 0 = 0
Es decir,
y H x1 + x2 y x1 + x2 H
por lo que H es una variedad lineal de V .
1 x1 + + k xk + + n xn = 0
=
h 1 x1 + + k xk + + n xn , xk i = h 0, xk i = 0 k = 1, 2, . . . , n
=
1 h x1 , xk i + + k h xk , xk i + + n h xn , xk i
=0
Como H es ortogonal y h xk , xk i = 0
h xi , xk i = 0 i = k = k h xk , xk i = 0 = k = 0 k = 1, 2, . . .
, n
xT1 = x2T P T y y1 = P y2
obtenemos la igualdad
xT2 P T A1 P y2 = xT2 A2 y2 xT2 (PT A1 P )y2 = xT2 A2 y2 = A2 = TA
1 P
P
h ui , uj i = 0 si i = j B es ortonormal
)
h ui , ui i = 1 i = 1, . . . , n
0
a) A partir de B vamos a construir primero otra base B = {w1 , w2 , . . . , wn }
ortogonal. Para ello tomemos w1 = v1
Consideremos w2 = v2 + 21 w1 con h w1 , w2 i = 0. Existe w2 ?
h w1 , w2 i = h w1 , v2 + 21 w1 i = h w1 , v2 i + 21 h w1 , w1 i = 0
h w1 ,
21 =
v2 i
kw1 k2
kw2 k kw1 k2
Si hemos calculado, en general w1 , w2 , . . . , wk , hacemos entonces,
w2 = v2 + w1
h v2 + w1 , w1 i = h v2 , w1 i + h w1 , w1 i =
0
Dado que
! !
h v2 , w1 i = 2 1 1
2 0 =2
1 2 1 = 2 + 2 = 0
! !
2 1 1 =2
h w1 , w1 i = 1 1 1
1 2
= 1 = w2 = v2 w1 = (1, 1)
2 2 ), ( , )}
6 6
Solucio n:
a) La matriz de Gram es
2 0 1
h e1 , e1 i h e1 , e2 i h e1 , e3 i
A = h e1 , e2 i h e2 , e2 i h e2 , e3 i = 0 1 1
h e1 , e3 i h e2 , e3 i h e3 , e3 i 1 1 2
b) Denotemos por v 01 , v20 y v30 a los vectores de la base B 0 y vamos, en primer
lugar, a ortogonalizarlos por el metodo de Gram-Schmidt (despues los
normalizaremos).
0
u1 = v1 = (1, 1, 1)
v0 0
2
, u
1 h i
= v + u con u u = =
2 2 1 2 1
h u01, u01 i
2 0 1 1
0 0
h v2 , u1 i = (0 1 1) 0 1 1 1 = 2
1 1 2 1
2 0 1 1
0 0
h u1 , u1 i = (1 1 1) 0 1 1 1 = 5
1 1 2 1
2 1
u20 = v02 + u01 = (0, 1, 1) + (1, 1, 1) = (2, 7, 3) (2, 7, 3)
5 5
h v,0 u 0i
u30 u10 = = h u30, u10 i
u0 1 1
u03 = v03 + u01 + u0 2 con0 v 0 , u0 i
h 3 2
3 u2 = = h u0 , u0 i
2 2
2 0 1 1
h v30 , u10 i = (0 2 0) 0 1 1 1 = 0 = = 0
1 1 2 1
2 0 1 2
h v 0 ,3 u0 2i = (0 2 0) 0 1 1 7 = 20
1 1 2 3
2 0 1 2
0 0
h u 2, u 2i = (2 7 3) 0 1 1 7 = 105
1 1 2 3
20
3 = v3 + u1 + u2 = (0, 2, 0) (2, 7, 3) =
105
u0 0 0 0
10
= (4, 7, 6) (4, 7, 6)
105
p
0 0 0
ku 1k = h u 1, u1 i = 5
p
0 0 0
ku2 k = h u2 , u2 i = 105
2 0 1 4
h u30 , u30 i = 4 7 6 0 1 1 7 = 21
1 1 2 6
p
ku03 k = h u30 , u30 i = 21
Normalizando los vectores obtenemos
u0 1 1 1 1
u1 = = (,,)
ku01 k 5 5 5
u20 2 7 3
u2 = 0 = ( , , )
ku2k 105 105 105
u30 7 6
u3 = 0 =( , , )
ku3k 4 21 21
21
por lo que la base ortonormal buscada es
1 1 1 2 7 3 4 7 6
B = {( , , ), ( , , ), ( , , )}
5 5 5 105 105 105 21 21 21
h x, y i = x1 y1 + x2 y2 + x3 y3 +
2x4 y4
se considera el subespacio
Calcular:
Solucio n:
a) h u1 , u1 i = ku1 k2 =1
h u1 , u2 i = 0
h 2u1 u3 , u1 i = 0 = 2h u1 , u1 i h u3 , u1 i = 0 = h u1 , u3 i = 2
h u2 , u2 i = ku2 k2 = 1
h 2u1 u3 , u2 i = 0 = 2h u1 , u2 i h u3 , u2 i = 0 = h u2 , u3 i = 0
h u3 , u3 i = ku3 k2 = 5
0 v20 u2
v2 = u2 + 0 v1 = u2 = v2 = = u2
= 20
kv k ku2 k
v30 = u3 + v1 + v2
con
h u3 , v1 i h u3 , u1 2
v 0 v1 = = =
i = = 2
3
h v1 , v1 i h u1 , u1 i 1
v0 2 u h
3 , v 2 i h u 3 , u 2 i
3 v = = = =0
h v2 , v2 i h u2 , u2 i
por lo que
v30 = u3 2 v1 + 0 v2 = u3 2u1
= h u3 , u3 i 4h u1 , u3 i + 4h u1 , u1 i = 1
por lo que
v3
v3 = = v3
kv3 k
y la base buscada es
B = {u1 , u2 , u3 2u1 }
x y = x1 y1 + x1 y2 + x2 y1 + x2 y2 x2 y3 x3 y2 + x3 y3
1 1 0
1 1 = 2 > 0 = > 2
0 1 1
por lo que se tratara de un producto escalar si > 2.
u 3 u2 = = h e3 , = u 2 Ae3 = 1
= T
hu , u i T
u 2 Au2 2
u2 i
2 2
1 1 1
u3 = e3 u2 = (0, 0, 1) (1, 1, 0) = (1, 1, 2) (1, 1, 2)
2 2 2
Normalizamos ahora los vectores ortogonales obtenidos:
u1 u u1 = (1, 0, 0)
= p 1 =
v1 = ku1 k 1
1 Au1
uT
u2 u2 u2 1 1 , 0)
v2 = =p T = ,
ku2 k u2 Au2 2 = ( 2
u3 u 3 u 3 2 1 , 2 )
v3 = =p T = 1, 2 2
ku3 k u3 Au3 2
= (
2
Una base ortonormal de R3 es, por tanto
B = {(1, 0, 0), ( 1/ 2, -1/ 2, 0), ( 1/ 2, -1/ 2,
-2/
2)}
x1 = 3 x2 = 2 x3 = 2
dim(LT + M T ) = 2
Sol :
a. c) Ortonormalizar la base B.
35 , a = p 7
Sol : arc cos /5, {3x2 , 15x2 20x, 42x2 140x + 105}.
6
f (x1 , x2 , x3 ) = (x1 + x2 + x3 , x1 x2 + x3 , x2 )
Sol :
a) > 1.
b) = 2.
2 2 6 6 6 2 2 3
b) B = {(1, 0, 0), ( 3, 2 3, 0), ( 5, 6 5, 6 5)}.
Sol :
a) = 1 y = 2.
a) a > 0.
b) a = 1.
( 5x1 + 4x2 = 0
c) L B L = {(4a, 5a, 2)}.
3x1 + 2x2 + ax3 =
0
son ortogonales.
Sol :
a) a > 1.
b) a = 2.
1 0 1 1 0
P (x) = A (P x) = (P x) = A (P
1
x) Llamando y = P 1 x tenemos que A0 y = y.
171
172Definiciones y propiedades Autovalores y autovectores172
172 172
a) Si es un autovalor de A, el conjunto V = {x V : Ax = x} es un
subespacio vectorial de V denominado subespacio propio de A asociado
al autovalor .
1 = 2 = V1 V2 =
{0}
Demostracion.
a) x, y V y , K =
A(x + y) = Ax + Ay = x + y = (x + y)
=
x + y V = V es un subespacio vectorial de V .
b)
x V1 = Ax = 1 x
x V1 V2 = y =
x V2 = Ax = 2 x
1 x = 2 x = (1 2 )x = 0 con 1 = 2 = x = 0
=
V1 V2 = {0}.
1 x1 + + r1 xr1 + r xr = 0 (5.1)
se tiene que
Xr X
r X
r
A i xi = 0 i Axi = 0 i i x i = 0
= = i=1
i=1 i=1
1 1 x1 + + r1 r1 xr1 + r r xr = 0
(5.2)
Multiplicando la ecuacion (5.1) por r obtenemos:
1 r x1 + + r1 r xr1 + r r xr = 0
(5.3)
1 (1 r ) = 0, , r1 (r1 r ) =
0
i = j si i = j = 1 = = r1 =
0 que llevados a la ecuacion (5.1) nos queda
r xr = 0 con xr = 0 = r = 0
Es decir,
1 x1 + + r1 xr1 + r xr = 0 = i = 0 1 i
r
Si es autovalor de A
det(I A) = 0
Si det(I A) = 0
(I A)x = 0 = Ax = x = es autovalor de
A.
Si = 0 es autovalor de A
Si T no es inyectivo
Ax = 0 Ax = 0x = A admite el autovalor
nulo.
Ax = x = Ax kx = x kx = (A kI )x = ( k)x =
k es un autovalor de A kI asociado al autovector x.
d) Si es un autovalor de A asociado al autovector x, m es autovalor Am
asociado al mismo autovector x cualquiera que sea m N.
autovalor de A asociado a x = Ax = x
=
V = Ker(I T )
p() = det(I A)
1 1
det(I B) = det(P (I A)P ) = det P det(I A) det P
det P
1 1
det P =
= det(I B) = det(I
A)
por lo que ambas matrices tienen el mismo polinomio caracterstico.
177Polinomio caracterstico de una matriz. Autovalores y autovectores
177177177
Una consecuencia inmediata de los resultados anteriores es que tanto los au-
tovalores como los autovectores son valores intrnsecos de la transformacion
y no dependen de la matriz que la represente, es decir, no dependen de la
base que se tome del espacio V .
1 = 1 y 2 = 1
(0,
y)
f (x)
x
(x, 0) (x, 0)
Espejo
Tomemos ahora como base de R2 las direcciones de las bisectrices de los cua-
drantes (vease la Figura 5.2).
f(x)
x
Espejo
Que hemos
cambiado?
El eje de reflexion sigue siendo el mismo que antes, solo que ahora no
viene
determinado por la direccion (0, 1) sino por la (1, 1) o para ser s precisos,
m
por la ( 2/2, 2/2) que son las coordenadas del antiguo vector (0, 1) respecto
al nuevo sistema de referencia.
Los vectores proporcionales al (1, 1) seguiran quedandose invariantes
mientras que los proporcionales al (1, 1) se transformaran en su opuesto,
es decir
1 = 1 y 2 = 1
y las variedades propias asociadas son, respectivamente
V1 = < ( 2/2, 2/2) > y V2 = < ( 2/2, 2/2) >
1 dim V
verifica que
a1 = (1)1 (1 1 + 0) = 0
!
1 0 1 2 1 3
a2 = (1) 2
+ + = 1 2 6 = 9
2 1 1 0 2 0
1 0 2
a3 = (1)3 2 1 3 = 4
1 2 0
El polinomio caracterstico de A es entonces
p() = 3 9 4
1 1
D=P AP = P Q 1 BQP = (QP ) 1 B(QP ) =
B es diagonalizable.
Una matriz D Knn es diagonal si, y solo si, admite por autovectores a
los vectores ei de la base canonica de Kn . Ademas, cada ei es autovector
de D asociado al autovalor di (elemento i-esimo de la diagonal).
Demostraci n.
d1 0 0
0 d2 . . . 0 De = d e =
D= =
.. . . i i i
. . .
0 0 dn
di es autovalor de D y ei es un autovector asociado a di .
Recprocamente, si e1 , . . . , en son autovectores de D asociados a 1 , . . . , n
respectivamente, Dei = i ei i = 1, . . . , n.
Ahora bien, Dei = i-esima columna de D y por tanto
1 0 0
0 2 . . . 0 D es diagonal.
D= =
.. . .
. . .
0 0 n
Una matriz A Knn es diagonalizable si, y solo si, existe una base de Kn
constituida por autovectores de A, es decir, si A admite n autovectores lineal-
mente independientes.
La matriz de paso P tiene por columnas las coordenadas de dichos
autovecto- res.
Demostraci n. La condicion suficiente quedo probada en el Teorema 5.10.
Veamos entonces que si A es diagonalizable posee n autovectores linealmente
independientes.
1
A diagonalizable = P no singular tal que P AP = D con D
diagonal.
Al ser D diagonal, admite n autovalores (di i = 1, . . . , n) y n
autovectores linealmente independientes (ei i = 1, . . . , n, vectores de la
base canonica de Kn ).
Por ser A y D semejantes poseen el mismo polinomio caracterstico y
por tanto, los mismos autovalores con las mismas multiplicidades aritm
eticas.
Dado que P es no singular
1
rg(A di I ) = rg P (A di I )P = rg(D di I )
=
(2 1 )v T1 v2 = 0
p() = 3 82 + 20 16 = ( 2)2 ( 4)
= 1 = 0 = v1 = (1, 1, = V2 = < v1 , v2 >
0) Para
= 0 = 1 = v2 = (0, 0,
1)
Los autovectores asociados a = 4 vienen dados por las soluciones del sistema
1 x1 =
(4I A)x = 0 1 = x2 =
0 0 2 x3 0 x3 = 0
B = {u1 , u2 , u3 }
1/ 0 1/
2 2
por lo que P = 1/ 0 /
1 2 con P 1 = P T es decir, P ortogonal.
2
0 1 0
Se verifica entonces que
2
T
P AP = D = 0
0
5.3.3 Aplicaciones de la diagonalizacion.
Potencias de matrices
A1 = (P DP 1 )1 = P D1 P 1 .
d1 0 1/d1 0
.. ..
Si D = . . . = D =
1
. . . =
0 0 1/dn
dn
1/d1 0
..
A1 =P . . .
P 1
0
1/dn
1 0 0
pA () = |I A| = 0 + 1 1 = ( 1)( + 1)2
0 0 +1
1 0 0
pB () = |I B| = 0 +1 0 = ( 1)( + 1)2
0 0 +1
189Ejercicios resueltos Autovalores y autovectores189
189 189
Ejercicio 5.2 Sabiendo que v1 = (0, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 1) son
los vectores propios de una aplicacion lineal f : R3 R3 , determinar la matriz
asociada a dicha aplicacion sabiendo que su primera columna es (1 2 3)T .
Solucio n:
a) El polinomio caracterstico es
1 a 0 1
0 1 1 2
p() = |I A| = = ( 1)2 ( + 1)2
0 0 +1 0
0 0 0 +1
por lo que sus autovalores son 1 doble y 1 doble.
Para = 1, sus autovectores verifican que (A I )x = 0, es decir
0 a 0 1 x1 0
ax2 =0
0 0 1 2 x 0
2 = =
x3 =0
0 0 2 0 x3 0 x =0
0 0 0 2 x4 0
por lo que
Si a = 0 solo tiene el autovector (1, 0, 0, 0).
Si a = 0 obtenemos los autovectores (1, 0, 0, 0), (0, 1, 0, 0).
Sol :
2
3
p() = 4 + 5 2
m() = 2 3 + 2
A = 2 v1 = (0,0, 1)
1
2 = 3 = 1 10 3 10 2 2
, 0, ), (0, , )
10 10 2 2
(
(
p() = m() = 3 62 + 12 8
B
1 = 2 = 3 = 2 (1, 1, 1)
1
0
Ejercicio 5.6 Estudiar si las matrices siguientes son diagonalizables. Si lo
son, encontrar la forma diagonal y la matriz de paso:
2 0 1 0 1 1 1 1
4 3 1 3 0 0 1 1
A= B =
6 6 3 6 0 1 0 1
2 2 1 2 0 0 0 1
1/3 0 3/27
1/15 0
2/3 3/ 2/ 0
1
/
Sol : Para A: P =
2 2 7 15 .
2/ 0 3/27
3/15 y D = 0
3
1/2
2
1/ 1/15
0
0 7
B no es diagonalizable.
Sol :
a) 2, 1 y 3.
b) Es diagonalizable. B = {( 2/ , 1/ , 0), 2/ , 2/ , 0), (0, 0, 1)}.
( 5 5 2 2
1 1
6 11 2
0 0 0 5 0 0 3/11 1/
2
Ejercicio 5.11 Diagonalizar por semejanza, con matriz de paso ortogonal, las
siguientes matrices:
4 0 4 6
0 1 1 1 1
0 1 0 0
A= 1 0 1 B = C= 1
1
1 1 0 4 0 0 2
1 1
6 0 2 5
Sol :
1/ /
1/2 1
3 1 0 0
6
A: P = 1/ 1/
y D= 0 1 0 .
1/ 2 6 3
0 /
2 1/
6 3
0 0 2
2/3 0 1/3 2/3 3 0 0 0
0 0 0 0 1 0 0
B: P = 1/
3
y D= .
2/3 0 2/3 1 /3 0 0 0 0
1/
3 0 2/ 3 0 0 0 12
2/
3
1/ 1/ 6 + 1 0 0
3 2
1/
1 3
C: P = /
1/
y D= 0 +1 0 .
1/ 2 6
1/
3 0 6 0 0 2
2/
Ejercicio 5.12 Estudiar, segun los valores de , si son diagonalizables
las matrices:
1 1 2 1+
A = 0 1 B = +2 1
0 0 1 2 1 0
Sol : A es diagonalizable si = 4/3 y B si = 0.
Sol :
2/2 0 2 /2 2 0 0
y D = 0 2 0 .
A: P = 2/2 2
/2
0
0 1 0 0 0 4
2/3
2/
3B: P3 = 3 .
3 /3
1/ 2/ 2 0 0 18
3
Sol :
a) a = b = d = e = f = 0, c = 4 y g = 5.
1 = 0
v1 = ( 0, 1,
2 = y autovectores v2 = (4,0,
b) Autovalores
0 v =3 ( 3, 0, 4, 0)
3 = 5 v4 = ( 4, 0, 3, 5)
4 = 10
0 0 0 0 0 4 3 4
0 0 0 0 1 0 0 0
c) D = y P =
0 0 5 0 0 3 4 3
0 0 0 10 0 5 0 5
1). b) (0, 0, 0, 1) N (f ).
c) f (L) L0 .
1). e) rg(f ) = 2.
0:
Sol :
a) Es diagonalizable si = .
0 0 2 2
b) D = 0 0 y P = 0 1 1 .
0 0 1 1
Sol :
1 2 0
0
1 1 1
a) Af = 2 y Ag = .
0 1 0
1
2 1 0
paso ortogonal.
Sol :
a) R.
2/2 2/2 0
1 0 0
b) D = 0 1 0 y P = 0 0 1 .
0 0 1 2 /2 0
2 /
2
c) n = 2.
200Ejercicios propuestos Autovalores y autovectores200
200 200
3 1 0
Ejercicio 5.25 Sea la matriz 3 0 . Hallar
0 0 2
Sol :
a) 0.
b) = 0.
c) < 0.
5
0 .
d) D =
0 0 2 0 0 1
d) V0 y V1 .
Ejercicio 5.27 Sea la matriz A =
Sol :
a) = 1 y = 0.
1 0 0 0 0 2 /2
b) D = 0 1 0 y P = 1 0 0 .
0 0 1 0 1 2/2
c) No.
Bibliografa
203
1
3
1
1
0