Sie sind auf Seite 1von 65

Pontificia Universidad Catolica de Chile

ticas
Facultad de Matema

Departamento de Matematica

Algebra Lineal (mat1203)

Apuntes-Resumen del Curso


Por Sebastin Soto Rojas (spsoto@uc.cl)
a

Probablemente sea extrao que un resumen tenga aproximadamente 65 pginas, pero Algebra Lineal
n
a
es un curso muy denso en contenidos, deniciones y teoremas. Como dir un profesor de la Facultad,
a
podr resultar incluso ms denso conceptualmente que cursos tan temidos como los Clculos en
a
a
a
F
sica e Ingenier Sin embargo, histricamente ha habido un dejo de mecanizacin en los problemas
a.
o
o
y ejercicios t
picos de este curso, y esto ha llevado a una poca valoracin del contenido conceptual y de
o
la amplia visin que puede dar este curso de toda la Matemtica y su lenguaje. Esto est cambiando en
o
a
a
los semestres prximos, y se est intentando que el curso tenga un enfoque cada vez ms conceptual,
o
a
a
lo que ha incrementado su dicultad.
Por esta razn, urge cada vez ms la comprensin de los conceptos y contenidos explicados, los cuales
o
a
o
no siempre, por no decir nunca, suelen ser entendibles a la primera, y luego se puede proceder a su
sistematizacin, sin nunca abandonar el concepto y el razonamiento detrs.
o
a
Estos apuntes-resumen son el reejo de una buena cantidad de horas invertidas (y no dormidas) en
compendiar de forma lo mejor posible todos los apuntes de todos los profesores que hacen y han hecho

Algebra Lineal alguna vez, sealando adems, los razonamientos fundamentales, cuando estos sean
n
a
necesarios.
En ningn caso estos apuntes reemplazan a los de un profesor del curso, y menos a los que debieran
u
ser tomados en clase, sin embargo, son una referencia rpida a los contenidos del curso una vez
a
asimilados los conceptos, o cuando haya algo particular que recordar. No slo suceder esto durante
o
a
el transcurso del semestre, si no que durante el transcurso de toda la carrera, donde en casi todas las
especialidades requerirn el uso de ciertos conceptos fundamentales vistos en el curso.
a

Exito a todos en el curso, y en el examen. Es posible pasarlo con buena nota, pero requiere el
esfuerzo de comprender cada concepto, por muy tedioso que pueda lucir a veces. Cualquier feedback,
comentario, aporte, sugerencia y/o error detectado en este documento es siempre bien recibido.
Muchas gracias por las colaboraciones de: Pilar Jadue A. (pijadue@uc.cl) y Francisco Carrasco C.
(ftcarrasco@uc.cl) en el desarrollo y/o revisin de estos apuntes.
o
Basado en los apuntes de los profesores:
1. Carla Barrios
2. Carolina Becerra
3. Ivn Huerta
a


Indice
1. Vectores en Rn

1.1. Denicin de vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

1.2. Operaciones vectoriales

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2.2. Ponderacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

1.2.3. Propiedades de la suma y la ponderacin . . . . . . . . . . . . . . . . . . . . .


o

1.3. Combinaciones lineales y conjunto generado . . . . . . . . . . . . . . . . . . . . . . . .

1.4. Geometr en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a

1.4.1. Producto punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.3. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.5. Rectas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.5.1. Ecuaciones de la recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

1.6. Hiperplanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

2. Sistemas de Ecuaciones

12

2.1. Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

12

2.2. Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

2.3. Notacin matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

13

2.4. Algoritmo de eliminacin de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

14

2.5. Solucin general


o

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

2.6.1. Sistemas simultneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

16

2.6.2. El producto Ax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

2.6.3. Sistemas homogneos e independencia lineal . . . . . . . . . . . . . . . . . . . .


e

16

2.6.4. Ecuaciones cartesianas a conjunto generado, obtencin de la solucin de un


o
o
sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

3. Matrices

18

3.1. Transformaciones lineales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

3.2. Matrices cannicas de una transformacin lineal . . . . . . . . . . . . . . . . . . . . . .


o
o

18

3.3. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

3.3.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

3.3.2. Ponderacin por escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

20

3.3.3. Multiplicacin de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

21

3.3.4. Transposicin: La matriz transpuesta . . . . . . . . . . . . . . . . . . . . . . . .


o

22

3.4. Transformaciones lineales inyectivas y sobreyectivas . . . . . . . . . . . . . . . . . . . .

22

3.4.1. Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

22

3.4.2. Relacin con la matriz cannica . . . . . . . . . . . . . . . . . . . . . . . . . . .


o
o

23

3.5. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

3.5.1. Inversa por la derecha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

3.5.2. Inversa por la izquierda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

3.6. Inversa de matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

3.6.1. Propiedades de las matrices invertibles . . . . . . . . . . . . . . . . . . . . . . .

25

4. Factorizaciones matriciales

25

4.1. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

4.2. Inversas y transpuestas de matrices elementales . . . . . . . . . . . . . . . . . . . . . .

26

4.3. Factorizacin A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

27

4.4. Factorizacin PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

28

4.5. Aplicaciones de la factorizacin PA = LU . . . . . . . . . . . . . . . . . . . . . . . . .


o

29

4.5.1. Resolucin de Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

29

4.5.2. Encontrar A1 b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

4.5.3. Resolver AX = B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

4.5.4. Resolver AT x = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

4.6. Factorizacin de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

30

4.6.1. Factorizacin LU de matrices simtricas . . . . . . . . . . . . . . . . . . . . . .


o
e

30

4.6.2. Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

31

4.6.3. Segunda factorizacin de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . .


o

32

5. Determinantes

33

5.1. Propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

33

5.2. Clculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

34

5.3. Clasicacin de formas cuadrticas con determinantes . . . . . . . . . . . . . . . . . .


o
a

34

5.4. Cofactores y matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

6. Espacios vectoriales

35

6.1. Cuerpos nitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

6.2. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

6.3. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

7. Subespacios vectoriales

38

7.1. Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

38

7.1.1. Para demostrar s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

7.2. Operaciones con s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

8. Bases y dimensin
o
8.1. Bases

41

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

8.2. Dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

41

8.3. Completacin de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

42

9. Sistema de coordenadas y cambio de base

42

9.1. Sistemas de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

9.2. Matrices de cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

10.Transformaciones lineales

44

10.1. Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

44

10.2. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

10.3. Matriz de una transformacin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

46

10.4. Algebra de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47

10.5. Anexo: resolucin de problemas tipo . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

48

11.Valores y vectores propios

49

11.1. Valores y vectores propios de una matriz cuadrada . . . . . . . . . . . . . . . . . . . .

49

11.2. Clculo de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

50

11.3. Clculo de vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


a

50

11.4. Diagonalizacin de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . .


o

51

11.4.1. Aplicaciones de matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . .

52

12.Ortogonalidad

53

12.1. Espacios vectoriales con producto interno . . . . . . . . . . . . . . . . . . . . . . . . .

53

12.1.1. Matriz de un producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

12.1.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

54

12.1.3. Concepto de ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

54

12.1.4. Bases ortogonales y proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . .

55

12.1.5. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

12.1.6. El operador proyeccin PW . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

57

12.1.7. El operador reexin RW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

58

12.2. Producto punto en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

12.2.1. Factorizacin QR y matrices ortogonales . . . . . . . . . . . . . . . . . . . . . .


o

58

12.2.2. Matrices de proyeccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

61

12.2.3. M
nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63

12.3. Valores y vectores propios de matrices simtricas . . . . . . . . . . . . . . . . . . . . .


e

64

1.

Vectores en Rn

Cabe preguntarse, qu es Rn ? Es una pregunta para la que se requieren elementos tericos antes de
e
o
poder responder, pero por ahora, se puede responder diciendo que es un espacio vectorial. Es decir,
un espacio donde estn contenidos vectores, y se verican algunas operaciones y axiomas bsicos. Por
a
a
ahora, basta con conformarse con la pertenencia de un vector a Rn .

1.1.

Denicin de vector
o

Denicin: Sea n
o
la siguiente:

1
.
v= .
.

N, un vector en Rn es conjunto ordenado de n elementos en R. La notacin es


o

= (1 , . . . , n ) =

1 . . . n

donde cada i R y v Rn

A veces se anota , pero no es condicin necesaria. Los vectores se pueden escribir usando simplev
o
mente letras minsculas.
u

Observacin: Para R2 y R3 se tienen representaciones en el plano cartesiano. A partir de estas se


o
pueden hacer comprensiones de fenmenos de la geometr en general de Rn . Sin embargo, para n 4,
o
a
vectores que s seran necesarios, ya se carece de representaciones grcas, por lo que todo el trabajo

a
con vectores es puramente algebraico, esa es una de las ventajas del lgebra lineal.
a

1.2.

Operaciones vectoriales

Existen much
simas operaciones en Algebra Lineal, sin embargo, las ms bsicas, y a partir de las
a a
que se pueden construir las dems, son la suma y la ponderacin por escalar. Algo se dice lineal, si
a
o
verica los axiomas de estas dos operaciones, que sern denidas a continuacin. (Se puede hacer
a
o
alguna referencia de lineal a l
nea, recta?)

1.2.1.

Suma

Denicin: Sean x, y Rn , entonces se dene la suma vectorial como + :


o

Rn Rn Rn
dos vectores de


1
.
. +
.
n

1
1 + 1

. =
.
.
.

.
.
n
n + n

Rn

:
R

1.2.2.

Ponderacin
o

Denicin: Sea x Rn y R, entonces se dene la ponderacin como una operacin RRn Rn


o
o
o
tal que:

x1
x1
. .
. = .
.
.
xn
xn

No confundir: cada xi es un nmero real que dene una coordenada del vector, y x es el vector
u
completo, que pertenece a Rn .
Nota: Prescindiremos de los signos y , pues estos sern representaciones de otras dos operaciones
a
particulares en el lgebra lineal. Todos las dems operaciones, adems de estas, deben evitar usar esta
a
a
a
notacin.
o

1.2.3.

Propiedades de la suma y la ponderacin


o

Propiedades: Para todo x, y, z Rn y , R se tiene que:


1. Conmutatividad : x + y = y + x
2. Asociatividad : (x + y) + z = x + (y + z)

3. Elemento neutro: x + 0 = x. Cero ahora es un vector, y no un escalar.

4. Inverso aditivo: x + (x) = 0 . De esta forma, se puede denir la resta vectorial a partir del
inverso aditivo.
5. () x = (x).
6. ( + )x = x + x.
7. (x + y) = x + y.
8. 1x = x.
1
9. x = x, con = 0.

Notar que 0x = 0 .

1.3.

Combinaciones lineales y conjunto generado

Denicin: Un vector x Rn se dice combinacin lineal (c.l.) de un conjunto S = {x1 , . . . , xk } si


o
o
existen escalares 1 , . . . , k R (pudiendo ser uno, e incluso todos cero) tales que:
x = 1 x1 + . . . + k xk
k

Adems, una combinacin lineal se dice convexa si


a
o

k = 1.
i=1

Denicin: Sea S = {x1 , . . . , xk } un conjunto de vectores en los que cada xi Rn . Entonces el


o
conjunto generado de S, anotado como S es aquel conjunto que satisface:
S = {x Rn : x es cl. de S} = 1 x1 + . . . + k xk

i Rn

Evidentemente, para Rn y con un conjunto no vac distinto de {0}, la cardinalidad (cantidad de


o
elementos) de este conjunto es innita. Sin embargo, este innito tiene condiciones segn la cantidad
u
de vectores y los vectores determinados.

Observacin: 0 S para cualquier conjunto S no vac


o
o.

1.4.

Geometr en Rn
a

Incluso para n 4 (e incluso para espacios vectoriales ms extraos an) se puede desarrollar una
a
n
u
geometr en que se incluyan los dos conceptos fundamentales: ngulo y distancia, con la denicin
a
a
o
adecuada de ciertas operaciones, convirtiendo todo el proceso geomtrico en uno algebraico.
e

1.4.1.

Producto punto

Denicin: Sean x, y Rn , entonces se dene el producto punto como aquella operacin : Rn


o
o
Rn R (convierte dos vectores a un escalar) tal que:

x1
y1
. .
. . = x 1 y1 + . . . + x n yn
.
.
xn

yn

Es decir, se multiplica componente a componente y se suma.


Propiedades: Sean x, y, z Rn y R, entonces:
1. x y = y x.
2. x (y + z) = x y + x z.
3. (x y) = (x) y = x (y).

4. 0 x = 0 .
5. x x 0.
6. x x = 0 x = 0.
Notar que x y = 0 no implica que x = 0 y = 0 necesariamente, basta notar que:
o
1
1

1
1

=0

Observacin: Esta observacin es importante, pues tiene implicancia en los desarrollos posteriores:
o
o

z1
y1
x1
x2 = y2 + z2
z3
y3
x3

Se tiene que:

x1 =

y1
z1

Y as simultneamente. Se tiene o mismo de forma anloga para cualquier c.l.

a
a

1.4.2.

Norma

Denicin: Sea x Rn . Se dene la norma o longitud (distancia al origen) de un vector como:


o
x =

xx

De aqu se desprende que:

x =


x1
.
.
.
xn

x1
. =
.
.
xn

x2
i
i=1

Para R2 y R3 se puede hacer la comprobacin. Para espacios de orden superior, basta con hacer uso
o
de la denicin.
o
Propiedades: Sea x, y Rn y R, entonces:
1. x

= x x 0.

2. x = 0 x = 0.
3. x = || x .
4. x + y

= x

+ y

+ 2x y.

Teorema: (Desigualdad de Cauchy-Schwarz) Sean x, y Rn , entonces:


|x y| x
Y |x y| = x

y si y slo si x = y para algn R.


o
u

Corolario: (Desigualdad Triangular) Sean x, y Rn , entonces:


9

x+y x + y
Denicin: Para x, y Rn se dene el ngulo entre vectores como:
o
a
xy
x y

= arc cos
Observaciones:
1. x

y x = y para = 0.

2. xy x y = 0.
Denicin: x Rn se dice unitario si x = 1.
o
Observacin: Para todo vector x Rn se puede obtener su forma unitaria x considerando:
o
x
x

x=

1.4.3.

Distancia

Denicin:
o
1. Un punto P en Rn est representado por su vector posicin, el cual parte desde el or
a
o
gen y llega
hasta el punto P .
2. Sean x, y Rn , estos representan puntos del espacio. Luego, la distancia est determinada por:
a
d(x, y) = y x

1.5.

Rectas

Denicin: Una recta L en Rn est denida como:


o
a
L : p+ d

con p, d Rn

Donde p representa el vector posicin, un vector contenido en la recta que indica su posicin con
o
o
respecto al origen, y d representa el vector direccin, el cual se ve determinado por la resta de dos
o
puntos pertenecientes a esta.
Observacin: Sean:
o
L1 : p1 + d1
L2 : p2 + d2
Se tiene que:
10

L1

L2 d1 = d2 .

L1 L2 d1 d2 d1 d2 = 0.
Sean a L1 y b L2 . Entonces, L1 = L2 si y slo si p1 a
o

1.5.1.

p2 b.

Ecuaciones de la recta

Denicin: Sea L1 una recta en Rn , entonces:


o
La ecuacin vectorial de L1 se representa como:
o
p + d

con R

La ecuacin paramtrica de L1 se representa como:


o
e

x1 = p1 + d1

.
.
con R
.

x = p + d
n

Las ecuaciones cartesianas de L1 se representan como:

1 x1 + . . . + n xn

1 x 1 + . . . + n x n
El nmero de ecuaciones necesario depende de varios parmetros, pero deben permitir llegar a
u
a
los otros tipos de ecuaciones.

1.6.

Hiperplanos

Denicin: Para Rn y dados un vector jo n Rn y un escalar b Rn se dene un hiperplano H


o
como un subconjunto de Rn para el que:
x H n x = b
Un plano es un caso particular de hiperplano. La diferencia fundamental es la imposibilidad de ser
gracado de este ultimo. El hiperplano es una generalizacin de plano para Rn .

o
Para poder hacer un estudio ms exhaustivo de los hiperplanos, se requiere el uso de sistemas de
a
ecuaciones.

11

2.

Sistemas de Ecuaciones

2.1.

Conceptos bsicos
a

Denicin: Una ecuacin lineal con n incgnitas es una expresin de la forma:


o
o
o
o
1 x1 + . . . + n xn = b con ai , xi , b R
Cada i corresponde a un coeciente, xi a una incgnita y b se conoce como coeciente libre.
o
Observacin: Toda ecuacin lineal de n incgnitas representa a un hiperplano de Rn . En particular,
o
o
o


1
.
.
.
n
n

x1
. =b
.
.
xn
x

Denicin: Se dene un sistema de ecuaciones de m ecuaciones y n incognitas como un conjunto de


o
ecuaciones lineales que se cumplen simultneamente:
a

11 x1 + . . . + 1n xn = b1

.
.
.

x + . . . + x = b
n1 1
nn n
n
La primera interpretacin es una interseccin de interplanos, es decir, se buscan los vectores x que pero
o
T
tenezcan simultaneamente a varios hiperplanos dados. Se buscarn los vectores x = x1 . . . xn
a
que pertenezcan a todos los hiperplanos dados simultneamente.
a
Denicin: Dos sistemas de ecuaciones se dicen equivalentes si las soluciones de cada sistema coino
ciden.

2.2.

Operaciones elementales

Denicin: Se conocen como operaciones elementales a aquellas operaciones que aplicadas a un


o
sistema de ecuaciones, obtienen uno equivalente. Estas son:
1. Permutacin: Se cambia intercambia el orden en que se muestran los sistemas de ecuaciones. Se
o
representa como
Ei Ej
2. Escalamiento: Se amplica toda una ecuacin lineal de un sistema de ecuaciones por un escalar
o
R distinto de 0.
Ei Ei
3. Eliminacin: Se suma un mltiplo distinto de 0 de una ecuacin lineal a otra:
o
u
o
Ei + Ej Ei
12

2.3.

Notacin matricial
o

La notacin matricial permite simplicar la resolucin de un sistema de ecuaciones, pues slo se


o
o
o
consideran sus coecientes numricos.
e
Denicin: Una matriz A de m n es un conjunto
o

a11 . . . . . .
.
A= .
.
am1

ordenado de m las y n columnas.

a1n
la 1
.
.
.
. . . . . . amn

Una forma de notar la matriz es:


A = [aij ]mn
Donde:
1. m representa el nmero de las.
u
2. n representa el nmero de columnas.
u
3. i representa el indicador de la la.
4. j representa el indicador de la columna.
Proceso: Se tiene un sistema de ecuaciones dado por:

11 x1 + . . . + 1n xn = b1

m1 x1 + . . . + mn xn = bn
La notacin es directamente:
o

11 . . . 1n
.
.
..
.
.
.
.
.
m1 . . . mn
Denicin: Todo el sistema de ecuaciones puede resumirse en:
o

Ax = b
Donde se considerar:
a
La matriz de los coecientes, que es aquella que contiene los coecientes dependientes del sistema
de ecuaciones.
La columna de resultados, que contiene los coecientes libres. Es un vector de Rm .

b1
.
b= .
.
bm
13

El vector solucin, que contiene los xi que sern solucin del sistema. Pertenece a Rn .
o
a
o

x1
.
x= .
.
xn
La matriz ampliada, [A|b], que contiene toda la informacin esencial del sistema. Es decir, se
o
toma:

11 . . . 1n b1
.
.
.
..
.
.
.
.
.
.
.
m1 . . . mn bm
En esta ultima notacin, es posible hacer el uso rpido de las operaciones elementales.

o
a

2.4.

Algoritmo de eliminacin de Gauss


o

Denicin: Una matriz est en forma escalonada (F.E.) si:


o
a
1. Las las que contienen unicamente ceros (nulas) estn bajo las las no nulas.

a
2. En cada la no nula, avanzando de izquierda a derecha hay un primer elemento distinto de 0 que
se llama pivote. El pivote de cada la siempre est como menos una columna ms a la derecha
a
a
que el pivote de la la anterior.
3. Cada columna que contiene un pivote tiene ceros abajo de l.
e
Denicin: Una matriz est en forma escalonada reducida (F.E.R.) si:
o
a
1. Est en forma escalonada.
a
2. Todos los pivotes son iguales a 1.
3. En cada columna con pivote, el unico elemento distinto de cero es el pivote.

Algoritmo: Para una matriz de Amn , el algoritmo de eliminacin Gaussiana lleva a la matriz A a
o
su F.E. en primera instancia:
1. Se asume que la primera columna no es nula. Si lo fuera, el proceso comienza en la primera que
no sea nula.
2. Buscar el primer elemento de la columna distinto de 0. Si no est en la primera la, se hace una
a
permutacin. Este ser el pivote de la primera la.
o
a
3. Eliminar hacia abajo la columna, dejando ceros bajo el pivote. Para la la i-sima y la columna
e
j esima se realiza considerando la operacin de eliminacin:

o
o
Fi

aij
Fj Fi
ajj

14

4. Se obtiene la matriz con el pivote. Se considera la submatriz comenzando desde la siguiente la


y la siguiente columna y se sigue repitiendo el proceso.
Este proceso se conoce como pivotear la matriz. No es necesario que todas las columnas tengan pivote.
Para llevarla a su F.E.R, se toma cada pivote y se aplica la operacin:
o

Fi

aij
Fj Fj
aii

Donde i es una la superior al pivote, por lo que i < j.

2.5.

Solucin general
o

Denicin: Sea A una matriz de m n y FE(A) su forma escalonada, equivalente a la matriz A. Se


o
dene el rango gaussiano, r(A), como el nmero de pivotes de FE(A).
u
Teorema: Si S es el conjunto de soluciones de un sistema de ecuaciones lineales, entonces:

S=

#S = 1

#S =

En el tercer caso, la solucin se puede expresar como un conjunto generado.


o
Denicin: Para un sistema lineal de ecuaciones de m ecuaciones y n incgnitas
o
o
Un sistema lineal sin solucin se dir incompatible o inconsistente. En este caso, r(A) = r(A|b).
o
a
Aparece un pivote en la columna de resultados.
Un sistema lineal con solucin unica se dir compatible determinado. Se tiene que r(A) =
o
a
r(A|b) = n.
Un sistema lineal con innitas soluciones se dir compatible indeterminado. Algunas variables
a
no quedarn determinadas por las ecuaciones, estas se dirn variables libres. Se cumple que
a
a
r(A) = r(A|b) < n. Adems:
a
nmero de variables libres = nmero de variables r(A)
u
u
Las variables libres satisfacen el sistema para cualquier valor que se les de, y siempre se corresponden
(no exclusivamente) con las las con pivotes. Por lo tanto, estas pueden formar parte de un conjunto
generado en la solucin.
o

15

2.6.
2.6.1.

Aplicaciones
Sistemas simultneos
a

Se pueden resolver varios sistemas simultneos de la forma:


a
[A|b1 ] . . . [A|b2 ]
Pivoteando una sola vez la matriz:
[A|b1 | . . . |bk ]
El sistema ser equivalente, y los resultados los mismos.
a

2.6.2.

El producto Ax

Denicin: Sea x Rn y sea A una matriz de n columnas, las cuales son {v1 , . . . , vn }, entonces se
o
dene el producto de una matriz por un vector:

x1
.
[v1 | . . . |vn ] . = x1 v1 + . . . + xn vn
.
b
xn
A
x

Es decir, al resolver el sistema Ax = b uno tambin puede responder a la pregunta de cules son los
e
a
coecientes que acompaan a v1 , . . . , vn y que determinan al vector b.
n
Teorema: Un sistema de ecuaciones [A|b] es compatible si y solo si el vector b es c.l. de las columnas
de A.
Propiedades:
1. A(x + y) = Ax + Ay.
2. Ax = A (x), con R.
2.6.3.

Sistemas homogneos e independencia lineal


e

Denicin: Un sistema se dir homogneo si su columna de resultados es el vector 0.


o
a
e
Teorema: Para x Rn , el sistema homogeneo Ax es compatible si y solo si r(A) = n.
Teorema: Si S0 es el conjunto de soluciones del sistema Ax = 0 y xp es solucin particular conocida
o
del sistema Ax = b, entonces el conjunto de soluciones de este ultimo esta dado por:

S = x0 + S0
Denicin:
o
16

El conjunto de vectores {u1 , . . . , un } ser linealmente independiente (l.i.) cuando la unica forma
a

de escribir 0 como combinacin lineal de ellos sea la trivial, es decir, multiplicando cada vector
o
por cero.
1 u1 + . . . + n un = 0 = i = 0 i n
El conjunto de vectores {u1 , . . . , un } ser linealmente dependiente (l.d.) cuando haya otra forma
a
distinta de la trivial para escribir el 0 como c.l. de ellos. Esto implica que al menos uno de ellos
se puede escribir como c.l. del resto de los vectores.
Teorema: Para el conjunto {v1 , . . . , vm } donde cada vi Rn . Si m > n, entonces el conjunto es l.d.

2.6.4.

Ecuaciones cartesianas a conjunto generado, obtencin de la solucin de un siso


o
tema de ecuaciones lineales

Las ecuaciones lineales y cartesianas que representan a un hiperplano pueden llevar a su transcripcin
o
a la ecuacin como conjunto generado, y de igual forma la ecuacin derivada de su denicin.
o
o
o
Dado el sistema, este se resuelve pivoteando la matriz respectiva y se obtendrn ecuaciones de la
a
forma. Se revisar un caso concreto. Por ejemplo, se tiene el sistema ya resuelto:
a
x1 +

0 + x3 +
x2 + x3 +

0 + 0 = b1
0 + x5 = b2
x4 + x5 = b3

Luego, las variables libres siempre (pero no exclusivamente) corresponden a las columnas sin pivote.
Se despejan las columnas con pivote, es decir, se despeja en trminos de x1 , x2 , x4 :
e
x1 =
b1 x3
x2 = b2 x3 x5
x4 =
b3 x5
Es decir, nuestro conjunto generado tendr 5 3 = 2 vectores.
a

Sabemos que un vector solucin es de la forma x =


o

x1
x2
x3
x4
x5

Reemplazando con las igualdades anteriormente obtenidas, se tiene que:

x=

b1 x3
b2 x3 x5
x3
b3 x5
x5

b1
b2
0
b3
0

17

+ x3

1
0
0

+ x5

Como x3 y x5 son variables libres, e independientes una de otra, pueden ser cualquier valor real. Por
lo tanto, la solucin, o el hiperplano segn corresponda a la interpretacin, queda expreado como:
o
u
o

S=

b1
b2
0
b3
0

1
0
0

posicin
o
Con la prctica adecuada, este mtodo es generalizable a cualquier solucin de sistema de ecuaciones,
a
e
o
e incluso puede ser desprendido el conjunto generado directamente de la matriz.

3.

Matrices

3.1.

Transformaciones lineales en Rn

Denicin: Una transformacin lineal (t.l.) de Rn en Rm es una funcin T : Rn Rm que cumple:


o
o
o
1. T (x + y) = T (x) + T (y).
2. T (x) = T (x).
Donde, R y x, y Rn .
Teorema: Sean T1 : Rn Rm y T2 : Rn Rm dos t.l., entonces T1 + T2 tambin es una t.l. de
e
Rn en Rm .
Teorema: Sea T : Rn Rm una t.l. y R, entonces T tambin es una t.l. de Rn en Rm .
e
Teorema: Sean: T : Rn Rm , S : Rm Rp dos t.l. Entonces, S T es una t.l. de Rn en Rp .

3.2.

Matrices cannicas de una transformacin lineal


o
o

Denicin: Sea n N jo, entonces se denen los vectores cannicos como:


o
o
e1 =

1 0 ... 0 0

.
.
.
ei = ( 0 . . . 1 . . . 0 )T
1

en la posicin i-sima
o e
.
.
.

en =

0 0 ... 0 1
18

Todos estos vectores ei pertenencen al Rn que se est usando.


e
Notar que ei = 1 y ei ej = 0 para i = j.
Observacin: Entonces, para todo x Rn se tiene que:
o

x1
.
x = x1 e1 + . . . + xn en = [e1 | . . . |en ] . =
.
xn

x1
.
.
.
xn

con xi R

Es decir todo vector se puede escribir como combinacin lineal de sus vectores cannicos.
o
o
Mtodo: Toda transformacin lineal de Rn en Rm puede ser representada por una matriz cannica.
e
o
o
Es decir, se tiene que:

T (x) = Ax
Con Amn , y x Rn .
Notar que con la observacin anterior, se tiene que:
o

T (x) = T (x1 e1 + . . . + xn en )

T (x) =
=

T (x1 e1 + . . . + xn en )
x1 T (e1 ) + . . . + xn T (en
)

x1
.
= [T (e1 )| . . . |T (en )] .
.
xn

Sabiendo la denicin de la transformacin, se puede calcular fcilmente cada T (ei ). Por lo tanto, la
o
o
a
obtencin de la matriz es directa. Se tiene que:
o

A = [T (e1 )| . . . |T (en )]
Denicin: Dada una t.l. de T : Rn Rm , la matriz de m n:
o
A = [T (e1 )| . . . |T (en )]
es la matriz cannica de la transformacin lineal T.
o
o

19

3.3.
3.3.1.

Operaciones matriciales
Suma

Denicin: Sean A, B matrices de m n, se sabe por teorema que su suma tambin es una transforo
e
macin lineal, considerando que:
o

A = [a1 | . . . |an ]

y B = [b1 | . . . |bn ]

Donde cada ai y bi es la columna respectiva de A B.


o
A + B = [a1 + b1 | . . . |an + bn ]
Propiedades: Sean A y B matrices de m n:
1. A + B = B + A.
2. A + (B + C) = (A + B) + C.
3. Existe un neutro aditivo, la matriz de m n denominada O y que est compuesta unicamente
a

por ceros.
4. Existe el inverso aditivo, A, que cumple que:
A + (A) = O

3.3.2.

Ponderacin por escalar


o

Denicin: Sea A una matriz de m n y R, entonces si A est denida como:


o
a
A = [a1 | . . . |an ]
Entonces, la ponderacin de una matriz por un escalar est denida por:
o
a

A = [a1 | . . . |an ]
Propiedades: Sean A y B matrices de m n y , R, entonces:
1. ( + )A = A + B.
2. (A + B) = A + B.
3. ( + )(A + B) = A + A + B + B.
4. ()A = (A) = (A).
5. 1A = A, (1)A = A y 0A = O.
20

3.3.3.

Multiplicacin de matrices
o

Denicin: Sean A una matriz de mn y B una matriz de np, entonces la matriz AB es una matriz
o
de m p es la multiplicacin de ambas matrices y representa a la composicin de las transformaciones
o
o
lineales respectivas asociadas a ellas. Si
B = [b1 | . . . |bn ]
Entonces:
AB = A [b1 | . . . |bn ] = [Ab1 | . . . |Abn ]
Es decir, si se considera a A por las:

aT
1
.
A= .
.
aT
n

Entonces, se tiene que:


aT b1 . . . aT bn
a1 b1 . . . a1 bn
1
1
.

. =
.
.
..
..
.
.
.
AB = .

.
.
.
.
.
.
an b1 . . . an bn
aT b1 . . . aT bn
n
n

Esta es la denicin que puede resultar ms rpida: producto punto de las por columnas. Para que
o
a a
dos matrices Amn y Bnp puedan multiplicarse. Debe cumplirse que las dimensiones de los extremos
interiores coincidan.
Denicin: Sea n N, la matriz In de n n se conoce como matriz de identidad de orden matriz de
o
identidad de orden n, y est denida como:
a

In = [e1 | . . . |en ] =

1 0 ... 0
.
.
0 1
.
.
..
.
. 0
.
0 0 ... 1

Es decir, es una matriz con unos en la diagonal y ceros en cualquier otra posicin.
o
Propiedades: Asumiendo que A, B y C son matrices que s pueden ser operadas entre s se tiene

,
que:
1. (AB)C = A(BC).
2. A(B + C) = AB + AC, y (A + B)C = AC + BC. Mucho cuidado con multiplicar por la izquierda
o la derecha.
3. (AB) = (A)B = A(B).
4. OA = AO = O con la dimensin que le corresponda.
o
5. Amn In = A, Im A = A.
21

Tenga cuidado:
1. AB = BA en general.
2. NO hay leyes de cancelacin. AB = AC no implica que A = C.
o
3. AB = O no implica que A = O B = O.
o

3.3.4.

Transposicin: La matriz transpuesta


o

Denicin: Sea Amn , entonces se dene la matriz transpuesta de A, que se anota como AT , como
o
una matriz de n m que se obtiene de intercambiar la la como columna.
A = [aij ]mn = AT = [aji ]nm
Observaciones:
1. (x Rn ) (y Rm )

(Ax) y = x (AT y).

2. x y = xT y.
Propiedades: Para matrices A, B las cuales s pueden ser multiplicadas y/o sumadas entre ellas segn

u
corresponda:
1. (AT )T = A.
2. (A + B)T = AT + B T .
3. (A)T = AT , donde R.
4. (AB)T = B T AT .

3.4.
3.4.1.

Transformaciones lineales inyectivas y sobreyectivas


Conceptos bsicos
a

Denicin: Sea T : Rn Rm una transformacin lineal. Se denen los conjuntos:


o
o
1. El ncleo o kernel de T como el conjunto:
u
Ker(T ) = {x Rn : T (x) = 0}
2. La imagen de T como el conjunto:
Im(T ) = {y Rm : x Rn : T (x) = y}
Teorema: Sea Amn la matriz de una t.l. T : Rn Rm , se tiene que si
A = [a1 | . . . |an ]

con cada ai Rm
22

1. Ker(T ) = {x Rn : Ax = 0}.
2. Im(T ) = a1 , . . . , an = b1 , . . . , bk con k n y donde el conjunto {b1 , . . . , bk } es l.i.
Denicin: Sea T : Rn Rm una t.l. y Amn la matriz cannica asociada. Entonces:
o
o
1. T y su matriz A se dicen inyectivas si y solo si
(x Rn ) (y Rn )

T (x) = T (y) = x = y

2. T y su matriz A se dicen sobreyectivas si y solo si


Rec(T ) = Rm
3.4.2.

Relacin con la matriz cannica


o
o

Teorema: Sea Amn , entonces todas las siguientes armaciones son equivalentes entre s Si se cumple
.
una, se cumplen todas.
A es sobre.
Las las de A son l.i.
Los sistemas Ax = e1 , . . . , Ax = em son compatibles.
Im(A) = Rm .
El sistema Ax = b tiene solucin para todo b Rm .
o
r(A) = m m n.
Teorema: Anlogamente, para la matriz Bmn las siguientes armaciones son equivalentes:
a
B es 1-1.
Las columnas de B son l.i.

Ker(B) = { 0 } Bx = 0 tiene solucin unica.


o
o
Si b Im(B), entonces Bx = b tiene solucin unica.
o
r(B) = n m n.

3.5.

Matrices inversas

Denicin: Sea Amn , entonces se dir que:


o
a
1. A tiene inversa por la izquierda si existe una matriz X de n m tal que:
AX = Im
2. A tiene inversa por la derecha si existe una matriz X de n m tal que:
XA = In
Siempre que se cumpla esta condicin X ser la inversa por la izquierda o la derecha segn corresponda.
o
a
u
En general, estas matrices no son unicas.

23

3.5.1.

Inversa por la derecha

Teorema: A tiene inversa por la derecha si y solo si A es sobre.


Mtodo: Slo en caso de que no se cumpla la particularidad, existirn inntias matrices que cumplen
e
o
a
esta condicin.
o
1. Se toma [A|I] y se lleva a su FER.
2. Se resuelve la solucin general para cada sistema.
o
3. Cada sistema es una columna de la matriz inversa por la derecha. Se asigna cualquier valor a la
parte generada, si es que existe, o se deja expresado en trminos de variables.
e
Evidentemente, si las columnas no son l.i., no ser unica.
a

3.5.2.

Inversa por la izquierda

Teorema: A tiene inversa por la izquierda si y solo si A es 1-1.


Mtodo: Se aprovecha el hecho de que ya sabemos cmo calcular la inversa por la derecha:
e
o
1. XB = I B T X T = I.
2. Se encuentra la matriz por el mtodo de bsqueda de inversas por la derecha. (Se pivotea [B T |I]).
e
u
3. Cada columna de X T pasar a ser la la respectiva de X.
a
Corolario: Sea Amn , entonces:
1. Si A tiene inversa por la derecha, entonces m n.
2. Si A tiene inversa por la izquierda, entonces n m.
3. Si A tiene inversa por la izqueirda y por la derecha, entonces m = n.

3.6.

Inversa de matrices cuadradas

Teorema: Ann tiene inversa por la izquierda si y solo si A tiene inversa por la derecha.
Corolario:
1. En este caso, la inversa es unica.

2. Se verican simultneamente todos los teoremas de sobreyectividad e inyectividad para esta


a
matriz: es biyectiva.

24

Denicin: Sea Ann con r(A) = n, entonces la unica matriz que es inversa por la derecha e izquierda
o

se llama matriz inversa de A y unicamente en este caso se anota A1 . Entonces, A es la unica matriz

que cumple que:


AA1 = A1 A = In
Adems, si A tiene inversa, se dice invertible.
a
Mtodo de alculo: Notar que como la matriz ser 1-1 y a la vez cuadrada, cada columna tendr un
e
c
a
a
pivote, por lo tanto al pivotear [A|I] se tendr una solucin unica para cada sistema. Por lo tanto,
a
o
F ER(C|I) = [I|A1 ].

3.6.1.

Propiedades de las matrices invertibles

Todas las demostraciones de invertibilidad se realizan bajo el siguiente principio: Si B es una matriz
inversa de A, entonces AB = I y BA = I.
(A1 )1 = A.
( R\{0})

(A)1 =

1 1
A .

Si A y B son invertibles, entonces AB tambin lo es, y (AB)1 = B 1 A1 .


e
A es invertible AT es invertible. Se sigue que (AT )1 = (A1 )T .

4.
4.1.

Factorizaciones matriciales
Matrices elementales

Denicin: Son matrices cuadradas que se obtienen al realizar una operacin elemental (permutacin,
o
o
o
escalamiento, eliminacin) a la matriz identidad I.
o
Permutacin: Pij representa la matriz elemental de permutacin, intercambiando la la i con
o
o
la la j, o bien la columa i con la columna j. Ejemplo de (P35 )55 :

1 0 0 0 0
0 1 0 0 0

0 0 0 0 1

0 0 0 1 0
0 0 1 0 0
Escalamiento: Ei () representa la matriz elemental de escalamiento, donde se multiplica la la
i (o columna i) por R. Ejemplo de E3 (4)55 :

1 0 0 0 0
0 1 0 0 0

0 0 4 0 0

0 0 0 1 0
0 0 0 0 1
25

Eliminacin: Eij (c) con c R representa la matriz elemental de eliminacin, donde se suma
o
o
a la la i c veces la la j. En eliminacin gaussiana, tenemos que siempre se cumple que i > j.
o
Ejemplo de E23 (4):

1 0 0 0 0
0 1 4 0 0

0 0 1 0 0

0 0 0 1 0
0 0 0 0 1
Notar que es simplemente ubicar c en la posicin (i, j) de la matriz elemental. Se puede pensar
o
haciendo tambin la misma operacin elemental en la matriz que nos piden.
e
o

4.2.

Inversas y transpuestas de matrices elementales

Matriz Elemental
Pij
Ei ()
Eij (c)

Matriz Inversa
Pij (1)
1
Ei ( ) = 0

Eij (c) (4)

Matriz Transpuesta
Pji = Pij (2)
Ei () (3)
Eji (c) (5)

(1) Notar que la operacin inversa de intercambiar una la con otra es volver a intercambiar la misma
o
la de nuevo.
(2) Notar que lo apropiado seria pensar que se intercambian columnas con columnas, pero esto es
exactamente lo mismo que intercambiar las con las en una matriz de permutacin.
o
(3) Aplicarle la transformacin a la la i o a la columna i es exactamente lo mismo, por eso en la
o
transposicin no se altera.
o
(4) Es lo mismo que restarle lo que anteriormente se habia sumado.
(5) Ver la matriz de ejemplo: el nmero agregado se traslada a la posicin (j, i).
u
o
Teorema: Sea Amn una matriz cualquiera y Mmm una matriz elemental, entonces
A = MA
es la matriz obtenida al aplicar a A la operacin elemental que representa la matriz M . Las
o
operaciones elementales se aplican por la izquierda a la matriz.
Importante: Las operaciones elementales por columnas se realizan de la siguiente forma: A = AM T ,
considerando que M es la operacin aplicada a una la. Notar tambin que debe coincidir con la
o
e
multiplicacin de la matriz por la derecha.
o
Recordar: Toda matriz A cuadrada e invertible se puede llevar a su F ER(A) = I, por medio de
operaciones elementales. Por lo tanto, Ok . . . O1 A = I. Luego A = (Ok . . . O1 )1 , donde Oi representa
una operacin elemental.
o

26

4.3.

Factorizacin A = LU
o

Denicin:
o
1. A = (aij )mn es triangular superior si aij = 0 con i > j, es decir, si todos los elementos bajo
la diagonal son ceros. Esto no quiere decir que los elementos en la diagonal o sobre la diagonal
tengan que ser distintos de 0.
2. De forma anloga, B = (bij )mn es triangular inferior si bij = 0 con i < j, es decir, si todos los
a
elementos sobre la diagonal son ceros, sin decir nada sobre los elementos en la diagonal o bajo
ella.
3. C = (cij )mn es diagonal si cij = 0 si i = j. Tambin pueden aparecer ceros en la diagonal!
e
Teoremas: Considerando las deniciones anteriores:
Si A y B son triangulares superiores, entonces AB es triangular superior.
Si A y B son triangulares inferiores, entonces AB es triangular inferior.
Si A y B son ambas triangulares superiores o inferiores con 1s en la diagonal, entonces AB es
triangular superior o inferior segn corresponda, y con 1s en la diagonal.
u
Si A es triangular inferior y triangular superior, entonces A es diagonal. Por ejemplo, la matriz
0 es diagonal.
Si A es triangular superior AT es triangular inferior. La expresin rec
o
proca tambin se
e
verica.
Si A es triangular superior e invertible A1 es triangular superior. Basta con notar que los
pivotes ya estar determinados en este caso. Si presenta unos en la diagonal, la matriz inversa
an
tambin los presentar.
e
a
Denicin: Sea Amn una matriz que no requiera operaciones de permutacin para ser llevada a su
o
o
FE, es decir, basta con usar operaciones elementales de eliminacin, entonces
o
A = LU
donde:
L es una matriz triangular inferior cuadrada de m m.
U es una matriz triangular superior que corresponde a una forma escalonada de A.
Obtencin de U: Simplemente se lleva A a su F.E. registrando las operaciones elementales efectuadas.
o
Obtencin de L: A F E(A) = Ek . . . E1 A. Donde Ei representa una operacin elemental
o
o
de eliminacin. Notar que todas las Ei son triangulares inferiores con unos en la diagonal (pues en la
o
eliminacin gaussiana i > j).
o
U = Ek . . . Ei A
L1

1
1
L = (Ek . . . E1 )1 = E1 . . . Ek

27

Importante: Recordemos que para las matrices de eliminacin se cumple que Eij (c)1 = Eij (c) en
o
L, luego, y slo en el caso de la obtencin de L operaciones consecutivas de eliminacin verican
o
o
o
que se ubicarn en su respectivo casillero en la matriz nal. Por ejemplo:
a

1 0 0
1 0 0
1 0 0
1 0 0
3 1 0 0 1 0 0 1 0 = 3 1 0
0 0 1 1 0 1
0 2 1
1 2 1
Esto slo se verica debido al orden en que se multiplican las matrices de eliminacin debido a la
o
o
factorizacin LU , por lo que no es una generalidad para el producto de matrices elementales de
o
eliminacin.
o
Observacin: Si describimos Amn
o

= LU mediante las, se tiene que: Ak =

lk,i Ui .

i=1

A1
1
. .
..
. = .
.
.
.
lm1
Am


O
U1
.
.
.
1

Um

A1 = 1 U1
.
.
.
A4 = l41 U1 + l42 U2 + l43 U3 + U4
.
.
.
o
n
Am = lm1 U1 + lm2 U2 + . . . + 1 Um slo el ultimo termino va acompaado de un 1.
m trminos
e

Se concluye que la la i-sima de A es una c.l. de todas las las de U con la la i-sima de L como
e
e
coecientes.

4.4.

Factorizacin PA = LU
o

Extiende la factorizacin A = LU a matrices que requieran operaciones de permutacin para ser


o
o
llevadas a su F.E.
Denicin: Sea Amn una matriz que requiera una cantidad m
o
nima de k operaciones de permutacin
o
para poder ser llevada a su F.E., entonces:
P A = LU
donde:
P es una matriz de permutacin con el producto de las k operaciones. Es cuadrada e invertible,
o
por ser producto de matrices elementales.
L y U son las matrices inferior cuadrada y superior respectivas.
Observaciones: Si bien en general la conmutacin del producto de matrices no se cumple, si se
o
cumplen las siguientes propiedades:
28

Pij Ekl (c) = Ekl (c) Pij , donde i, j = k e i, j = l.


Pij Eij (c) = Eji (c) Pij . En la eliminacin se intercambian los coecientes.
o
Pij Ejk (c) = Eik (c) Pij .
Pij Eki (c) = Ekj (c) Pij . Concluimos que en estos dos ultimos casos se intercambia la letra

coincidente con la otra de la permutacin.


o
Mtodo: Con estas observaciones, se puede realizar la factorizacin. Notemos que:
e
o
A F E(A) = U = Eij (c1 ) . . . Puv Emn (ci ) . . . Ejk (cg )A.
Se pueden efectuar las conmutaciones para que U quede como:
L1

U = Ei . . . E1 Pk . . . P1 A
P

Y de esta forma se puede nalmente efectuar la factorizacin P A = LU .


o

4.5.

Aplicaciones de la factorizacin PA = LU
o

Sabiendo P , L y U se pueden resolver todos estos tipos de problemas sin la necesidad de encontrar A.

4.5.1.

Resolucin de Ax = b
o

Ax
P Ax
L Ux

= b
= Pb
= Pb

(1) Se resuelve Ly = P b. P b se obtiene rpidamente, pues b es multiplicado por una matriz de


a
permutacin. El sistema se obtiene por sustitucin directa, pues L es triangular y ya est pivoteada.
o
o
a
(2) Se resuelve U x = y. Tambin se obtiene rpidamente, pues U ya est pivoteada.
e
a
a

4.5.2.

Encontrar A1 b

A1 b = x
b
= Ax
Este sistema se resuelve como en el caso anterior.

29

4.5.3.

Resolver AX = B

P \

AX
P AX
L UX

= B
= PB
= PB

(1) Se resuelve LY = P B L[y1 | . . . |ym ] = [P b1 | . . . |P bm ]. Entonces, se resuelve pivoteando [L|P B],


pero L es invertible! Entonces F ER(L|P B) = [I|Y ].
(2) Se resuelve U X = Y . Se resuelve de forma anloga: se obtiene F ER(U |Y ) y se obtiene el valor de
a
cada columna de X.

Resolver AT x = b

4.5.4.

P A = LU /( )T AT P T = U T LT AT = U T LT P
Entonces:
AT x = b U T LT P x = b
y
z

(1) Se resuelve U T z = b. U T es triangular inferior, luego bastar pivotear hacia abajo.


a
(2) Se resuelve LT y = z. LT es triangular superior y 1-1, luego se resuelve rpidamente.
a
(3) Se resuelve P x = y x = P 1 y = P T y.

4.6.

Factorizacin de Cholesky
o

4.6.1.

Factorizacin LU de matrices simtricas


o
e

Denicin: Ann es simtrica si y slo si A = AT , lo que viene a signicar que cada trmino se ve
o
e
o
e
reejado por la diagonal de la matriz.
Primera Factorizacin de Cholesky: Si A es simtrica y factorizable como A = LU , es decir, no
o
e
se requieren operaciones de permutacin para factorizarla, entonces:
o
A = LDLT
donde:
L ya lo conocemos.
D es una matriz diagonal, que contiene a la diagonal de U .
30

4.6.2.

Formas cuadrticas
a

x1
.
Denicin: Una forma cuadrtica es una funcin Q : Rn R si para todo x = . se cumple que
o
a
o
.
xn

todo trmino no nulo del recorrido es de grado 2. Formalmente: Q() =


e
x

i1

mi x2 +
i
i=1

rij xi xj .
i=1 j=1

Denicin: La matriz A representa a una forma cuadrtica si y slo si:


o
a
o
(x Rn ) Q(x) = xT Ax
Existen, eso s innitas matrices que representan a una f.c. Q(x).
,
Teorema: Existe una unica matriz simtrica S que representa a Q(x).

Notar: Q( 0 ) = 0 R.
Clasicacin de Formas Cuadrticas:
o
a

Denida positiva: (x = 0 ) Q(x) > 0.


Semidenida positiva: (x Rn ) Q(x) 0.

Denida negativa: (x = 0 ) Q(x) < 0.


Semidenida negativa: (x Rn ) Q(x) 0.
No denida: (x1 , x2 Rn ) Q(x1 ) > 0 Q(x2 ) < 0.
Recordar: Para hacer demostraciones armando este tipo de expresiones, es aconsejable siempre evaluar
xT Ax y hacer la demostracin.
o
Para matrices D diagonales, quiere decir que slo apareceran trminos del tipo xii en la forma cuadrtio
e
a
ca. Son los ms fciles de clasicar:
a a

d11

O
..

.
dnn

Q y su matriz D son denidas positivas si dii > 0.


Q y su matriz D son semidenidas positivas si dii 0.
Ocurre de forma anloga para denido negativo y semidenido negativo.
a
Teorema: Sea Q(x) = xT Sx una f.c. y sea S una matriz simtrica tal que S = LDLT tal que
e
D = (dij )nn . Entonces:
31

Q y su matriz S son denidas positivas si dii > 0.


Q y su matriz S son semidenidas positivas si dii 0.
Q y su matriz S son denidas negativas si dii < 0.
Q y su matriz S son semidenidas positivas si dii 0.
En caso contrario, son no denidas.
Denicin: Se dene como diagonalizacin de una matriz cuadrada al proceso por en el que una
o
o
matriz S simtrica se lleva a su forma LDLT , de modo que Q(x) se escribe como la exclusiva suma
e
de trminos al cuadrado. Notar que:
e
Q(x) = xT Sx = xT L D LT x
u

uT

4.6.3.

Segunda factorizacin de Cholesky


o

Importante: Las siguientes demostraciones tambin se extienden a denidas negativas.


e
Denicin: Sea A = (aij )nn , denimos se dene como submatriz Ak con k = {1, . . . , n} de la forma
o
Ak = (aij )kk donde el elemento (i, j) de Ak concide con el mismo elemento de A.
Teoremas:
1. Si una matriz A es denida positiva, entonces A es invertible.
2. Si A es denida positiva, entonces Ak es denida positiva para todo k < n.
3. Si A es denida positiva, entonces A tiene factorizacin LU .
o
4. Una matriz cuadrada A admite descomposicin A = LU si sus n 1 submatrices principales son
o
invertibles, pues as se garantiza que no se deben efectuar operaciones de permutacin.

o
Corolario: Todas las submatrices de una matriz denida positiva son invertibles.
Mtodo de factorizacin: Sea A denida positiva, tenemos que A = LDLT . Se sigue que:
e
o

d11
O

..
D=

.
dnn

O
Se tiene que (i n) dii > 0. Por lo tanto,

T
D= D =

d11
..

T
Luego A = L D DLT = ( DLT )T DLT .
RT

32

O
.

dnn

5.

Determinantes

Denicin: Un determinante es una funcin: det : Mn (R) R que tiene la particularidad de


o
o
entregar 0 para una matriz no invertible. Se denota det(A) |A|a . Es la unica funcin que satisface
o

o
las siguientes tres propiedades fundamentales:
1. det(I) = 1.
2. Propiedad alternante: Siendo A una matriz obtenida al intercambiar dos las de A, entonces
det(A) = det(A).
3. Propiedad multilineal :
T
f1
.
.
.

T
f1
.
.
.

T
T
fi1
fi1
T = uT +
+ v
T
T
fi+1
fi+1
.
.
.
.
.
.
T
T
fn
fn

uT

T
f1
.
.
.
T
fi1
vT
T
fi+1
.
.
.
T
fn

No confundir con valor absoluto!

5.1.

Propiedades bsicas
a
det(P A) = (1)r A. Donde P es una matriz producto de r operaciones elementales de permutacin.
o
Si A tiene dos las iguales, entonces det(A) = 0. De forma anloga si A tiene una la con ceros.
a
Respecto a matrices elementales:
det(Pij ) = 1
det(Ei ()) =
det(Eij (c)) = 1

det(M A) = det(M ) det(A), donde M es una matriz elemental.


det(Ann ) = n |A|.
n

dii , para todo dii R y i n.

Sea D matriz diagonal, det(D) =


i=1

Si P Ann = LU , entonces det(A) = (1)r det(U ).


n

Si A es triangular, det(A) =

lii .
i=1

A es invertible det(A) = 0.
det(AB) = det(A) det(B).
det(A1 ) =

1
.
det(A)

det(AT ) = det(A).
33

5.2.

Clculo de determinantes
a

Recursin
o
a b
= ad bc.
c d
a1 a2 a3
b b
b b
b b
b1 b2 b3 = a1 2 3 a2 1 3 + a3 1 2 .
c2 c3
c1 c3
c1 c2
c1 c2 c3
Denicin: Para Ann se dene Aij como la matriz de (n 1) (n 1) que se obtiene al eliminar
o
la la i-sima y la columna j-sima.
e
e
n

(1)i+j aij det(Aij ). De preferencia se desarrolla por la la 1,

Por la i-sima la: det(Ann ) =


e
j=1

es decir, i = 1.
n

(1)i+j aij det(Aij ).

Por la j-sima columna: det(Ann ) =


e
i=1

5.3.

Clasicacin de formas cuadrticas con determinantes


o
a

Teorema: Sea A una matriz simtrica y Ai con i = 1, . . . .n las submatrices principales de A, se tiene
e
que:
1. A es denida positiva si y slo si det(Ai ) > 0 i.
o
2. A es denida negativa si y slo si (1)i det(Ai ) > 0 i.
o

5.4.

Cofactores y matriz adjunta

Denicin: Se dene el cofactor del elemento aij como:


o
Co(aij ) = (1)i+j det(Aij )
n

Entonces, det(A) =

aij Co(aij ) =
j=1

aij Co(aij ).
i=1

Denicin: Se dene la matriz adjunta de A como:


o
Adj(A) = (Co(aij ))T
nn
Teorema: Sea Ann , se tiene que:
A Adj(A) = Adj(A) A = det(A) In
Consecuencias: Del teorema anterior se sigue que:
34

A es invertible det(A) = 0. Entonces,

1
1
Adj(A) A = Inn . A1 =
Adj(A).
det(A)
det(A)
A1 !

Adj(A) = det(A) A1 , entonces si A es invertible: det(Adj(A)) = det(A)n1 .


2

Adj(A) Adj(Ajd(A)) = det(Adj(A)) In . Entonces, det(Adj(Adj(A))) = det(A)(n1) .


Adj(AT ) = Adj(A)T .
Adj(Adj(A)) = det(A)n2 A.
Adj(I) = I.

6.

Espacios vectoriales

6.1.

Cuerpos nitos

Denicin: Un cuerpo K es un conjunto de elementos que satisfacen los siguientes axiomas bsicos
o
a
para la suma y el producto:
Suma: Operacin cerrada: K K K.
o
1. Conmutatividad : x + y = y + x.
2. Asociatividad : x + (y + z) = (x + y) + z.
3. Existencia de neutro aditivo: Existe un 0k tal que x + 0k = x.
4. Existencia de inverso aditivo: de modo que el elemento sumado a su inverso den el elemento
neutro.
x + (x) = 0k
Producto: Operacin cerrada: K K K.
o
1. Conmutatividad : x y = y x.
2. Asociatividad : x (y z) = (x y) z.
3. Existencia de inverso aditivo: Existe un 1k tal que x 1k = x.
4. Existencia de un inverso aditivo: Para todo x = 0k existe un x1 tal que x x1 = 1.
Distributividad: x (y + z) = x y + x z.
Teorema: Zn es un cuerpo si y slo si Zn = Zp con p primo.
o
Denicin: Para n Z se dene:
o
n md p = i n = k p + i, i {1, . . . , p 1}
o
Observaciones:
m n = (m + n) md p.
o
35

m n = (m + n) md p.
o
Para las operaciones de suma y multiplicacin basta realizar la operatoria real y luego aplicar
o
mdulo.
o
a
= x a = b x. Esta forma optimiza el clculo de fracciones. Slo es vlido si b md p = 0.
a
o
a
o
b
Se pueden hacer todas las operaciones en R y luego convertir a Zp cuidando de no efectuar una
divisin por un mltiplo de p.
o
u
#Zn = pn .
p
v1 Zn # < v1 >= p.
p
Proposiciones:
1. m md p + n md p = m n.
o
o
2. m md p n md p = m n.
o
o
:
1. Asociatividad: (x y) z = x (y z).
2. Conmutatividad: x y = y x.
3. Inverso aditivo: x (p x) = 0.
:
1. Asociatividad: (x y) z = x (y z).
2. Conmutatividad: x y = y x.
Propiedad distributiva:
(x y) z = (x z) (y z).

36

6.2.

Concepto de espacio vectorial

Denicin: Un conjunto no vac E (con sus vectores) es un espacio vectorial (e.v.) sobre un cuerpo
o
o
K (con sus escalares) si tiene denidas dos operaciones binarias y cerradas:
Suma : E E E.
Ponderacin
o

: E K E.

que cumplen los siguientes axiomas:


Axiomas de la Suma:
1. Conmutatividad. (x, y E) x + y = y + x
2. Asociatividad. (x, y, z E) x + (y + z) = (x + y) + z.
3. Existencia de elemento neutro aditivo 0E . 0E := neutro aditivo de E.
4. A cada x E le corresponde su inverso aditivo. (x E)(x E) x (x) = 0E .
Axiomas de la Ponderacin:
o
1. Existencia de un neutro multiplicativo 1K : (x E) x

1K = x.

2. Asociatividad. (, K)(x E) ()

x) =

x=

x).

3. Distributiva respecto a la suma escalar.


4. Distributiva respecto a la suma vectorial.
Ejemplos: Los siguientes ejemplos se asumen inmediatamente como espacios vectoriales:
E = Rn .
E = Mmn (R). Matrices de m n.
E = F(R). Todas las funciones reales f : R R.
E = C 1 (R).
E = P(R). Conjunto de todos los polinomios con coecientes reales.
E = Pn (R). Conjunto de todos los polinomios con grado menor o igual a 3. Ojo: Un e.v. con
todos los polinomios de grado exactamente igual a 3 no es un cuerpo.
Se puede sustituir R por cualquier otro cuerpo K y obtener resultados.
Teorema: Sea E un e.v. sobre un cuerpo K, entonces:
El elemento neutro aditivo 0E es unico.

Para cada elemento x E, su inverso aditivo (x) es unico.

0K

x = 0E .
0E = 0E .
37

(1)

x = (x).

x = 0 = = 0 x = 0E .

Existe un unico vector x que es solucin para u x = v.

6.3.

Combinaciones lineales

Denicin: Sea E un e.v. sobre K y S = {v1 , . . . , vn } un conjuunto donde todo vi E entonces:


o
1. Una combinacin lineal (c.l.) es una expresin de la forma:
o
o
1 v1 + . . . + n vn

i K, 1 i n

2. Se dene el conjunto generado por S como el conjunto de todas las c.l. de los vectores de S.
S = {x : x es c.l. de S}
3. El conjunto S es linealmente independiente (l.i.) si la unica forma de escribir 0E como c.l. de

vectores de S es la trivial. Es decir,


1 v1 + . . . + n vn = 0E (i) i = 0
4. El conjunto S es linealmente dependiente (l.d.) si existen i no todos nulos de modo que:
1 v1 + . . . + n vn = 0E
En general:
A E es l.i. si cualquier subconjunto nito Ai es l.i.
A E es l.d. si algn subconjunto nito Ai es l.d.
u

7.

Subespacios vectoriales

7.1.

Denicin
o

Sea E un e.v. sobre K, S es un subespacio vectorial (s.e.v.) si:


S E y S = .
S verica los axiomas para las operaciones heredadas de E.
Notacin: S
o

E.

Teorema: Sea S un subconjunto no vac de E, e.v. sobre K. S es s.e.v. si y slo si se cumple que:
o
o
1. S es cerrado bajo la suma: x, y S = x + y S.
2. S es cerrado bajo la ponderacin por escalar: x S, K =
o

x S.

Teorema: S es un s.e.v. de E si existe algn conjunto A tal que S = A .


u
38

7.1.1.

Para demostrar s.e.v.

Con los dos teoremas anteriores se tienen dos mtodos para demostrar que S es un s.e.v. de E:
e
Mtodo 1: Para demostrar que S es un s.e.v. de E, basta demostrar que:1
e
1. S E y S = . En particular, demostrar que 0E S.
2. S es cerrado bajo suma.
3. S es cerrado bajo ponderacin.
o
Mtodo 2: Expresar como conjunto generado. Evidentemente, algo no del estilo , pero por ejemplo
e
0E s es un s.e.v.

7.2.

Operaciones con s.e.v.

No olvidar:
1. x A B x A x B.
2. x A B x A x B.
3. A B = {0E } 1 a1 + ... + n an = 1 b1 + . . . + n bn tiene solucin trivial.
o
Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 S2 tambin es s.e.v. de E.
e
Importante: S1 S2 E, pero no necesariamente es s.e.v., pues puede no ser cerrado bajo la suma
o la multiplicacin.
o
Teorema: Sean S1 y S2 s.e.v. sobre E, entonces S1 S2 es s.e.v. de E si y slo si S1 S2 S2 S1 .
o
o
Demostracin: 2 Recordar que para demostrar una equivalencia (si y slo si) se debe demostrar la
o
o
implicancia para ambos lados, es decir:

(p q) (p q) (q p)
(=)
Lo haremos para S1 S2 . La otra demostracin es anloga.
o
a
Observaciones:
1. A A B y B A B.
2. S1 S2 (x S1 = x S2 )
1
2

Y en estos casos, siempre revisar la denicin que se nos da de E


o
Se dej propuesta en clases. Aqu est desarrollada, como ejercicio.
o

39

1) Cerrado bajo la suma.


x S1 , y S2 . Se sigue que x S2 . Luego, es evidente que x + y S1 S2 , pues x + y S2 S1 .
2) Cerrado bajo la ponderacin.
o
Como S1 es s.e.v., entonces si x S1 se tiene quex S1 S1 S2 . De forma anloga ocurre para
a
algn y S2 .
u
Por lo tanto, siendo S1 S2 S2 S1 , se tiene que S1 S2 S2 S1 es s.e.v. de E.
o
o
(=)
En el sentido de la lgica, tenemos que:
o
p = q r

por demostrar

(p q) = r
expr. equivalente

Entonces, supongamos que S1 S2 es s.e.v. y que S1

S2 . Tenemos que demostrar que S2 S1 .

Sea s1 S1 s1 S1 S2 y s2 S2 s2 S1 S2 , como es cerrado bajo la suma, entonces


s 1 + s 2 S1 S2 .
Pero, s1 + s2 S1 S2 = s1 + s2 S1 s1 + s2 S2 . Pero, como S1 es s.e.v. por hiptesis, tambin
o
e
es cerrado bajo la suma. Luego, si restamos s1 S1 , debe cumplirse que:

s1 + s2 s1 = s2 S1
Hemos demostrado que s2 S2 = s2 S1 S2 S1 . Por lo tanto, se cumple tambin esto.
e
Como se han vericado ambas implicancias, queda entonces demostrado.
Denicin: Sean S1 y S2 dos s.e.v. de E, se dene:
o
S1 + S2 = {x E : x = s1 + s2 con s1 S1 y s2 S2 }
Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 + S2 es s.e.v. de E.
Teorema: Si S1 = A y S2 = B , entonces S1 + S2 = A B .
Denicin: Sean S1 y S2 subespacios vectoriales de E, entonces S1 + S2 es suma directa si:
o
i) S1 + S2 = E.
ii) S1 S2 = {0E }.
Se anota entonces S1 S2 = E. Notar que: v1 , . . . , vn = v1 , . . . , vi1 vi , . . . , vn .
Nota: Razonamiento para la interseccin de s.e.v. Para probar que U V = {0E }, tomamos dos
o
bases:
BU = {u1 , . . . , um } y BV = {v1 , . . . , vn }. Luego, por denicin de interseccin:
o
o
40

U V = {x : x = 1 u1 + . . . + m um x = 1 v1 + . . . + n vn }.
Por lo que:
1 u1 + . . . + m um = 1 v1 + . . . + n vn
Es decir,

i ui
i=1

k vk = 0E
k=1

O, en otras palabras, demostrar que la unica forma de generar 0E es la trivial: i = 0 y i = 0, porque

de esta forma, el unico elemento que satisfacer esta condicin ser exactamente 0E . Es decir:

a
o
a
n

= 0E , pues i = 0

i ui
i=1

vector de

i vi

= 0E , pues i = 0

i=1

vector de

8.

Bases y dimensin
o

8.1.

Bases

Denicin: Sea E un e.v. sobre K y S un s.e.v. de E. Un conjunto B es una base de S si:


o
1. B E.
2. B es l.i.
3. S = B .
Notar que {0E } es el unico conjunto que es s.e.v. de todo e.v. y a la vez no tiene base, pues {0E } = 0E ,

que no es un conjunto l.i.

8.2.

Dimensin
o

Teorema: Sea S E sobre K cuya base tiene n vectores. Todo conjunto de vectores l.i. de S tiene a
lo ms n vectores.
a
Teorema: Sea S

E sobre K cuya base tiene n vectores. Toda base de S tiene exactamente n vectores.

41

Denicin: Sea S un s.e.v. de E, entonces se dene la dimensin de S como el nmero de vectores


o
o
u
que tiene cualquier base de S. Se anota dim S, y se tiene que:
Si S tiene n elementos3 , entonces:
dim S = n
Si S = {0E }, entonces:
dim S = 0
Si S tiene innitos elementos, entonces:
dim S =
Teorema: Sea S

E sobre K con dim S = n. Si A S tiene n vectores, entonces:

1. A es base de S si y slo si A es l.i.


o
2. A es base de S si y slo si S = A .
o
Notar que una implica a la otra.

8.3.

Completacin de bases
o

Teorema: Sea S
alguna base de S.
Teorema: Sea S1

E sobre K. Sea A un conjunto l.i. de vectores en S, entonces A est contenido en


a
E y S2

E, ambos con dimensin nita. Entonces:


o

dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) dim(S1 S2 )


Corolario: Si E = S1 S2 , entonces dim E = dim S1 + dim S2 .

9.
9.1.

Sistema de coordenadas y cambio de base


Sistemas de coordenadas

Observacin: En una base el orden de los vectores s importa. Se habla de bases ordenadas de E.
o

Teorema: Sea B = {b1 , . . . , b2 } una base de E. Entonces existe una unica c.l. de x E con esa base.

Denicin: Sea B = {b1 , . . . , bn } una base de E. Para x E se dene su vector coordenada como
o

1
.
[x]B = . Kn x = 1 b1 + . . . + n bn
.
n
De preferencia se puede entender que b1 , . . . , bn estn en trminos de la base cannica.
a
e
o
() Ejemplo de base cannica: R3 =
o

e1 , . . . , e 3
base cannica
o
42

. El conjunto es la base, y no el generado!

Teoremas: Sea B = {b1 , . . . , bn } una base de E y x, y vectores de E. Entonces:


1. El vector [x]B es unico. [x]B es un biyeccin.

o
2. [x + y]B = [x1 ]B + [x2 ]B .
3. [x]B = [x]B .
4. {x1 , . . . , xn } es l.i. {[x1 ]B , . . . , [xn ]B } Kn .

9.2.

Matrices de cambio de bases

Denicin: Sea S E sobre K. [Id]B2 es la unica matriz de cambio de base que cambia las coordeo
B1
nadas en base B1 a coordenadas en base B2 para un vector t S y B1 y B2 bases de S. Esto implica
que:
(x S)

B2

= Id

B2
B1

B1

Cmo determinarla? (Razonamiento): Verlo de la forma lo ms grca posible. Pensar primero


o
a
a
en las bases:
B1 = {x1 , . . . , xn }
B2 = {y1 , . . . , yn }
Considerar que B1 y B2 son conjuntos l.i. Es decir, cada elemento de cada conjunto se puede expresar
como combinacin lineal del otro. En particular, cada xi se puede expresar en trminos de {y1 , . . . , yn }.
o
e
Siempre pensar que xi e yk son vectores, pero no de la forma Kn , si no que vectores propios de su
conjunto. Es decir, pueden ser matrices, polinomios, etc.
Considerar [Id]B2 por columnas. Es decir, [Id]B2 = [c1 | . . . |c2 ]. Se sabe adems que los vectores coora
B1
B1
denadas son especicamente de la forma Kn .

1
B2 .
Cmo se obtiene la columna 1? Por operacin de matrices se sabe que es [Id]B . . Pero, qu es
o
o
e
.
1

0
()
1
.
()? Es un vector coordenada de B1 . En particular, es tomar [x1 | . . . |xn ] . = x1 . La pregunta
.
0
que falta es, a qu se puede igualar esto? La idea detrs de la matriz de cambio de base es convertir
e
a
un vector expresado en ciertas coordenadas a otra base. Por lo tanto, se debe buscar 1 , ..., n de
modo que x1 = 1 y1 + . . . + n yn . De esta forma, se tiene que:

[1 y1 + . . . + n yn ]B2

1
.

= . = [Id]B2
.
B1
n

1
. =c
.
1
.
0

[x1 ]B1

43


1
.
. = c1
.
n

Cmo se obtienen las dems columnas? De la misma forma! Por lo tanto, el proceso de determinacin
o
a
o
de la matriz de cambio de bases se puede resumir en lo siguiente:
Algoritmo: Considerar una base cannica Be , tomar la siguiente matriz
o
[y1 ]Be | . . . |[yn ]Be |[x1 ]Be |...|[xn ]Be
y pivotearla. Es evidente, dado que ambos conjuntos son l.i., que los pivotes aparecern en y1 . Incluso,
a
como es base, y es un conjunto l.i., se pivotear hasta llegar a I. Luego, se puede resolver cada sistema
a
[B2 ]xi individualmente. Sea ui cada solucin, se resume que:
o

F ER

[y1 ]Be | . . . |[yn ]Be |[x1 ]Be |...|[xn ]Be

= [In | u1 | . . . |un ]
B

[Id]B2
1

[Id]B2
B1

= [u1 | . . . |un ]

El mtodo general es resolver cada sistema, pero para operaciones no tan evidentes, este mtodo puede
e
e
simplicar mucho la tarea. Sin embargo, este mtodo es vlido, pues se sustenta en el hecho de que el
e
a
cambio de coordenadas es una operacin lineal.
o
Observacin: La matriz de cambio de base [Id]B2 es:
o
B1
1. Cuadrada, pues son n las para n vectores de la base y n columnas para tener congruencia en
el producto de matriz por vector.
2. Con columnas y las l.i., pues la multiplicacin por la matriz debe ser una operacin biyectiva
o
o
(a cada vector coordenada en B1 le corresponde un unico vector coordenada en B2 y viceversa).

3. Por lo tanto, invertible y [Id]B2


= [Id]B1 . Algo esperable, pues la operacin inversa a un
o
B1
B2
cambio de base es regresar a la base original.

10.
10.1.

Transformaciones lineales
Conceptos bsicos
a

Denicin: Sean U y V e.v. sobre un mismo cuerpo K. Una funcin T : U V es una transforo
o
macin lineal (t.l.) si y slo si:
o
o
1. T (u1 + u2 ) = T (u1 ) + T (u2 )

con u1 , u2 U .

2. T (u1 ) = T (u1 ).
En ambos casos, la operacin se hace primero en U y en el segundo lado de la igualdad en V .
o
Propiedades: Considerando nuevamente U y V .
44

1. T (0U ) = 0W .
2. Siendo A U , entonces T ( A ) = T (A) .
3. S es s.e.v. de U = T (S) es s.e.v. de V . (Como cada s.e.v. se puede expresar como conjunto
generado, es consecuencia de 2)
Denicin: Sea T : U V una t.l. Se dene:
o
1. el kernel o ncleo como Ker(T ) = {u U : T (u) = 0V }.
u
2. la imagen como Im(T ) = {v V : u U : T (u) = v}.
Teorema: Sea T : U V una t.l., entonces:
1. Ker(T ) es un s.e.v. de U .
2. Im(T ) es un s.e.v. de V .
Teorema: (del Ncleo-Imagen) Sean U y V e.v. sobre K y de dimensin nita y T : U V una
u
o
t.l. Entonces:
dim U = dim(Ker T ) + dim(Im T )
Este teorema es clave para la determinacin de ncleo e imgenes de transformaciones lineales, pues
o
u
a
indica fcilmente la dimensin y el nmero de vectores de un conjunto generado conociendo el otro.
a
o
u
Para el caso de matrices, simplemente se puede resumir en:
nmero de columnas = nmero de columas no l.i. +
u
u
cantidad de vectores del Ker

10.2.

nmero de columnas l.i


u
N de vectores que generan Im(A)

Isomorsmos

Denicin: Sea T : U V una t.l. Entonces T es:


o
1. un monomorsmo si T es 1-1 o inyectiva.
2. un epiformismo si T es sobre o epiyectiva.
3. un isomorsmo si T es 1-1 y sobre, es decir, una biyeccin.
o
Denicin: Dos espacios U y V son isomorfos (U V ) si existe una transformacin T que sea
o
o
=
isomrca.
o
Teoremas: Sea T : U V una t.l. Entonces:
1. T es monomorsmo si y slo si dim(Ker(T )) = {0}.
o
45

2. T es epimorsmo si y slo si dim(Im(T )) = dim(V ).


o
3. T es monomorsmo si y slo si transforma conjuntos l.i. de U en conjuntos l.i. de V .
o
4. T es epimorsmo si y slo si transforma conjuntos generadores de U en conjuntos generadores
o
de V .
5. T es isomorsmo si y solo si transforma bases de U en bases de V .
Teorema: U V dim U = dim V .
=

10.3.

Matriz de una transformacin lineal


o

Denicin: Sean U y V espacios vectoriales sobre K con dimensiones n y m respectivamente y sus


o
respectivas bases BU y BV . Sea adems T : U V una t.l., entonces se dene la matriz Amn de
a
dicha transformacin lineal como aquella que cumple que para u U :
o
T (u)

BV

= Amn [u]BU

Cmo determinarla?
o
1. Decidir o considerar las bases pertinentes. Para el caso de la denicin se puede tomar:
o
BU = {u1 , . . . , un }
BV = {v1 , . . . , vm }
2. Considerar A por columnas:
A = [a1 | . . . |an ]
3. Se quiere sacar cada columna de A, luego, lo prudente ser ir multiplicndola por cada ei
a
a
correspondiente, como se hac anteriormente. Recordar aqu que:
a


1
.
A . = A[u1 ]BU = a1
.
0
4. A priori se conoce la transformacin lineal. Por lo tanto, se conoce T (ui ). Conociendo la base,
o
es tambin posible determinar T (ui )
e
.
BV

5. Qu falta por hacer? Igualar!


e
T (ui )

BV

= ai columna i-sima de A
e

Concluimos bajo este razonamiento que:


A= T(u1 )

BV

. . . T(un )

46

BV

Denicin: La matriz A se llama formalmente matriz de la transformacin T de la base BU a la base


o
o
BV . Se anota:
T

BV

BU

Teoremas: Sean T : U V , BU = {u1 , . . . , un } y BV = {v1 , . . . , vn } las bases respectivas de los


e.v. U y V y [T ]BV la matriz de la transformacin T en las bases respectivas. Entonces, los siguientes
o
BU
teoremas muestran un comportamiento similar de las t.l. al comportamiento ya conocido de matrices:
1. u Ker(T ) [u]BU es solucin del sistema [T ]BV x = 0.
o
BU
2. v Im(T ) el sistema [T ]BV x = v es compatible.
BU
3. T es un monomorsmo si y solo si [T ]BV tiene inversa por la izquierda (la matriz ser 1-1).
a
BU
4. T es un epimorsmo si y solo si [T ]BV tiene inversa por la derecha (la matriz ser sobre).
a
BU
5. T es un isomorsmo si y solo si

T 1

Corolario:

BV
BU

BV

BV
BU

existe.

BU

Algebra de transformaciones lineales

10.4.

Propiedades: Las propiedades de las matrices de transformacin son las mismas que las de las
o
matrices ya estudiadas:
1. T1 + T2
2. T1

BV
BU

3. T3 T1

BV
BU

= T1

= T1
BW
BU

BV
BU

BV
BU

= T3

+ T2

BV
BU

BW
BV

T1

BV
BU

Para todos los clculos, el lgebra de matrices puede ser aplicada, por lo que se verican las mismas
a
a
propiedades para todas las transformaciones lineales.
Observacin: Sean
o
1
2
BU y BU bases de U .
1
2
BV y BV bases de V .

T : U V una t.l.
T

1
BV
1
BU

y T

2
BV
2
BU

matrices de la transformacin T con respecto a las bases indicadas.


o

Entonces:

2
BV
2
BU

= Id

2
BV
1
BV

47

1
BV
1
BU

Id

1
BU
2
BU

10.5.

Anexo: resolucin de problemas tipo


o

Problema tipo 1: Sea T : U V una transformacin lineal de modo que para x U existe algn
o
u
y V tal que:

T (x) = y
(Es decir, se entrega la denicin de la transformacin lineal como se estime pertinente)
o
o
Determinar bases A y B para U y V respectivamente de modo que la matriz de la transformacin sea
o

T = [c1 | . . . |cn ]

ci Km

(Se entrega la matriz completa, pero nosotros la consideramos por columnas)


Resolucin: Este problema se resuelve considerando la siguiente secuencia:
o
1. Determinar base para el conjunto de partida.
2. Determinar base para el conjunto de llegada.
Considerar que la matriz es de m n. Entonces, buscamos bases que cumplan que:
A = {a1 , . . . , an }
B = {b1 , . . . , bm }
Sabemos, por denicin que:
o
c1 = T (a1 )

.
.
.
cn = T (an )

0
.
Si aparece una columna de la forma ci = . quiere decir que ai Ker(A).
.
0
En dichos casos, ser necesario determinar los elementos del Ker de la matriz a partir de la denicin
a
o
entregada. En la posicin i-sima de la base deber aparecer un elemento del ncleo de la matriz. Los
o
e
a
u
dems elementos de la base se seleccionan de modo que el conjunto quede l.i. (lo ms sencillo, por lo
a
a
tanto, es elegir elemento de la base cannica o la base que simplique lo ms posible los clculos).
o
a
a
La base del conjunto de partida debiera estar determinada. Ahora importa la base del conjunto de
llegada. Como sabemos cada elemento ai , podemos determinar sin complicacin cada T (ai ), pues
o
48

sabemos la denicin de la trasnformacin que se nos entrega, adems de la matriz. En caso contrario,
o
o
a
el ejercicio no tendr solucin.
a
o
Pensemos de nuevo en la base. Esta est determinada por
a
B = {b1 , . . . , bm }
Cada bi es lo que se desea determinar. Sabemos que:

T (ai )

i1
.
= ci = .
.
im

Por la denicin, esto es:


o

T (ai ) = i1 b1 + . . . + im bm
Donde conocemos T (ai ) y cada ik . Tomando una base cannica D, el problema se reduce a determinar
o
una matriz [b1 | . . . |bn ] conociendo soluciones al sistema

b1

| . . . | bn

ci = T (ai )

. El problema

ser que pueden aparecer vectores que no son l.i., o que el conjunto quede con una dimensin menor
a
o
que el conjunto de llegada. Como se soluciona? Se completan bases, de modo que el conjunto quede
l.i., y slo los primeros trminos representen a la imagen del conjunto.
o
e

11.

Valores y vectores propios

11.1.

Valores y vectores propios de una matriz cuadrada

Denicin: Sea A Mnn (R). Se dene:


o

El valor propio como aquel R para el que existe un Rn distinto de 0 tal que:
x

A =
x
x

El vector propio es aquel que satisface la condicin del valor propio.


x
o
Observaciones:
1. Los vectores propios no pueden ser nulos.
2. Ker(A) son los vectores propios para = 0, si y solo si es no trivial.
3. Un vector propio genera lo que se denomina una direccin ja en A, pues Ax = x, pero tambin
o
e
x es un vector propio para ese , pues
A(x) = Ax = x = (x)
Es decir, se tiene que una recta, o direccin ja, satisface la condicin para ese valor propio.
o
o
49

Observacin: La forma pertinente de calcular es primero el valor propio, y luego los vectores propios
o
asociados a ese valor.

11.2.

Clculo de valores propios


a

Teorema: Sea A Mnn (R), entonces:

es valor propio de A det(A In ) = 0


Denicin: Para la matriz A det(A In ) origina un polinomio que se denomina polinomio caraco
ter
stico y se anota:
pA () = det(A In )

Este polinomio es de grado n, y por Teorema Fundamental del Algebra, se sabe que tiene n ra
ces
complejas (no necesariamente distintas).
Denicin: Sea i ra de pA () (y por lo tanto, un valor propio de A). Entonces, se entiende por
o
z
multiplicidad algebraica de i al nmero de veces que i es ra de pA (). Es decir, el polinomio
u
z
caracter
stico puede factorizarse como:
pA () = ( i )ai qA () ai N
Cmo calcular valores propios?: Sacar ra
o
ces de pA () segn se necesiten las reales y/o las
u
complejas.

11.3.

Clculo de vectores propios


a

Mtodo: Para Ann .


e
1. Calcular valores propios, seleccionar los valores reales si es que se requieren solo estos. Considerar
el conjunto {1 , . . . , n }.
2. Se busca resolver:
(A 1 In ) x1 = 0

Ax1

= 1 x1

Axn

Ker!
.
.
.
.
.
.
= n xn (A n In )xn = 0

3. Con lo anterior, se ve que simplemente hay que calcular individualmente el Ker de cada matriz
A x1 por pivoteo o el mtodo que se estime conveniente (i.e. Regla de Cramer).
e
4. Vericar que ninguna solucin al Ker sea trivial, pues en ese caso i no corresponde a un valor
o
propio (det(A i In ) = 0).
Denicin: Sea A Mnn (R), entonces:
o
50

1. Para cada i el Ker(A i In ) es un s.e.v. (pues es un conjunto generado) y se conoce como


subespacio propio de i .
2. Se dene la multiplicidad geomtrica (gi ) de i como:
e
gi = dim Ker(A In )
Teorema: Sea i valor propio de A Mnn (R) con multiplicidad algebraica ai y multiplicidad
geomtrica gi , entonces:
e
1 gi ai
Propiedades:
1. Si existe x = 0 tal que Ax = x con R, entonces Ak x = k x.
1
2. Si A es invertible y tiene a = 0 como valor propio, entonces es valor propio de A1 . Ambos

tienen asociados los mismos vectores propios.


3. = 0 es valor propio de A si y solo si Ker(A) = 0. Es decir, si A es no invertible.
4. Las matrices A y B son similares si A = C 1 BC. Las matrices similares tienen el mismo
polinomio caracter
stico: pA () = pB ().
5. Si 1 , . . . , n son los valores propios de una matriz A, entonces p (0) =
determinante es igual al producto de los valores propios de A. (?)

i . Es decir, el

Denicin: Se dene la traza de una matriz cuadrada A como la suma de los elementos de la diagonal
o
principal. Es decir,

a11
.
..
Si A = .
.
.
an1

a1n
. , entonces tr(A) =
.
.
ann

aii
i=1

i donde {1 , . . . , n } es el conjunto de los valores propios de A

Teorema: Se tiene que tr(A) =


i=1

(sin ser necesariamente distintos).

11.4.

Diagonalizacin de una matriz cuadrada


o

Denicin: Una matriz A Mnn se dice diagonalizable si las bases de los subespacios propios
o
correspondientes a los distintos valores propios de A forman una base de Rn .
Teorema: Sea 1 = 2 valores propios de una matriz A. Si x1 es vector propio correspondiente a 1
y x2 es vector propio correspondiente a 2 , entonces el conjunto {x1 , x2 } es l.i.

Corolario: Ker(A 1 I) Ker(A 2 I) = { 0 }.


51

Corolario: Sea {U1 , . . . , Um } el conjunto de los subespacios propios de A. Entonces, A es diagonalim

zable si dim(Rn ) =

dim(Ui ) = n.
i=1

Denicin: Sea A Mnn . Diremos que A es diagonalizable si y solo si A es similar a una matriz
o
diagonal. Es decir, si existen dos matrices Pnn invertible y Dnn en Mnn tales que:
A = P DP 1
Donde P = [x1 | . . . |xn ] y xi es un vector propio de

1
.
D= .
.
0

Ay

..
.

0
.
.
.
n

Teorema: A Mnn es diagonalizable si y solo si:


1. existe una base de Rn compuesta por vectores propios de A.
2. ai = gi para todo i valor propio de A.

11.4.1.

Aplicaciones de matrices diagonalizables

1. Sea A diagonalizable, entonces A = P DP 1 . Luego,


Ak = (P DP 1 ) . . . (P DP 1 ) = P Dk P 1
k

veces

2. Sea Ann y sea q(x) un polinomio con coecientes reales. Si q(x) = a0 + a1 x + . . . + ak xk , se


dene q(A) como:
q(A) = a0 I + a1 A + . . . + ak Ak
Teorema: Si v es un vector propio de A correspondiente al valor propio , entonces:
q(A)v = q()v

Teorema: Si A es diagonalizable, entonces:


q(A) = P q(D)P 1
3. Teorema (de Cayley-Hamilton): Sea Ann diagonalizable y pA () si polinomio caracter
stico,
entonces pA (A) = .

52

12.
12.1.

Ortogonalidad
Espacios vectoriales con producto interno

Denicin: Sea V un espacio vectorial cualquiera. Una funcin : V V R, ser un produto


o
o
a
interno (p.i.) de V si (x, y, z V )( R) se cumple que:
1. Simtrica: (x, y) = (y, x).
e
2. Lineal en su primer argumento:
(x + y, z) = (x, z) + (y, z).
(x, y) = (x, y).
3. Denida positiva: (x, x) 0 y (x, x) = 0 x = 0.
Denicin: El par de objetos V (e.v.) y (p.i.) se llama espacio con producto interno o espacio
o
eucl
deo.
Propiedad: El p.i. tambin es lineal en su segundo argumento.
e

(x, y + z) = (x, y) + (x, z)


Notacin: El producto interno tambin se nota como , . Es decir, x, y = (x, y).
o
e

12.1.1.

Matriz de un producto interno

Denicin: Sea Bi = {v1 , . . . , vn } base de V y un p.i. de V , y x e y dos vectores de V . Entonces


o
la matriz []B es la matriz del producto interno y esta representada por:

(v1 , v1 ) . . . (v1 , vn )

.
.
..
.
.
[]B =

.
.
.
(vn , v1 ) . . . (vn , vn )
Y si (x, y) = , entonces [x]T []B [y]B = .
B
Propiedades:
1. []B es simtrica.
e
2. (x, x) es una forma cuadrtica positiva denida.
a
3. Teorema: Sea V un e.v. sobre R con dim(V ) = n y B una base de V . Entonces una funcin
o
: V V R es un producto interno si y solo si existe una matriz Mnn simtrica y positiva
e
denida tal que:
(x, y V ) (x, y) = [x]T M [y]B
B

53

12.1.2.

Norma

Denicin: Sea (V, ) un espacio eucl


o
deo. Se dene la longitud o norma de un vector x V como:

x =

(x, x)

Propiedades: Son las mismas indicadas para el producto punto en Rn .


1. x = || x .
2. x + y

= x

+ y

+ 2(x, y).

3. x 0 y x = 0 x = 0.
4. Desigualdad de Cauchy-Schwartz :
|(x, y)| x

5. Desigualdad triangular :
x + y x+y
Denicin: Se dene el ngulo entre dos vectores x e y en el espacio eucl
o
a
deo (V, ) como:

(x, y) = arc cos

12.1.3.

(x, y)
x y

Concepto de ortogonalidad

Denicin: Sea (V, ) un espacio eucl


o
deo y x e y V . Entonces:
1. x e y son ortogonales si (x, y) = 0 y se anota xy.
2. x es ortogonal al conjunto C (no vac si (c C)
o!)

xc. Se anota xC.

3. Se dene el complemento ortogonal C al conjunto no vac C V como C = {x V : xC}.


o
Notar que {0} = V y a su vez V = {0}.
Observacin importante: Un espacio eucl
o
deo genera una geometr propia en dicho espacio, ya
a
que se pueden denir la distancia y el ngulo entre vectores, por esta razn se pueden demostrar
a
o
propiedades como el teorema de Pitgoras o similares.
a
Propiedades: Sea (V, ) un espacio eucl
deo, entonces:
1. C

V.

2. Para x V se tiene que x s1 , . . . , sm xs1 , . . . , xsm .


3. Si B es una base de S

V , entonces B = S .

4. Si C1 C2 , entonces C2 C1 .

54

12.1.4.

Bases ortogonales y proceso de Gram-Schmidt

Denicin: Sea (V, ) un espacio eucl


o
deo de dimensin n. Entonces, el conjunto {u1 , . . . , un } es una
o
base ortogonal si (ui , uj ) = 0 para todo i = j. Ser una base ortonormal si adems (ui , ui ) = 1 para
a
a
todo i = 1, . . . , n.
Teorema (Proceso de Gram-Schmidt): La demostracin es anloga al procedimiento para tener una
o
a
base ortogonal. Sea (V, ) un espacio eucl
deo, entonces V tiene una base ortonormal.
Demostracin y Procedimiento: Todo e.v. tiene al menos una base. Sea esta base llamada B =
o
{b1 , . . . , bn }, y esta siempre debe ser conocida.
Parte 1: Determinacin de la base ortogonal.
o
Es evidente que la base a obtener debe tener n elementos. Supongamos que estos son {v1 , . . . , vn }.
1. Partimos tomando v1 = b1 .
2. v2 = b2 21 v1 . El escalar 21 se debe elegir de modo que v1 v2 .
(v1 , v2 ) = (v1 , b2 21 v1 ) = 0
(v1 , b2 ) 21 (v1 , v1 ) = 0
21 =

(v1 , b2 )
(v1 , b2 )
v2 = b2
v1
(v1 , v1 )
(v1 , v1 )

3. v3 = b3 31 v1 32 v2 . Nuevamente, 31 y 32 se eligen de modo que v3 v1 y v3 v2 . Por este


procedimiento anlogo, tenemos que:
a
31 =

(v1 , b3 )
(v1 , v1 )

y a32 =

(v2 , b3 )
(v2 , v2 )

4. Se sigue anlogamente que:


a
k1

vk = bk
j=1

(vj , bk )
vj
(vj , vj )

Cmo garantizamos que el conjunto es l.i.? Porque al ser ortogonales, por teorema, son l.i. No hace
o
falta, por lo tanto, demostrar que sean l.i., si no ms bien sealar esta condicin.
a
n
o
De esta forma, obtenemos cada vk .
Parte 2: Determinacin de la base ortonormal.
o
Supongamos que la base a buscar es V = {v1 , . . . , vn }. Tenemos que:

vk =

Pues de esta forma vk =

vk
vk

vk
= 1.
vk
55

vk
vk

12.1.5.

Proyecciones ortogonales

Denicin: Sea (V, ) un espacio eucl


o
deo de dimensin nita y W
o
dene la proyeccin ortogonal como aquel vector w que satisface que:
o

V . Entonces para x V se

w W.
b wW .
Teorema: La proyeccin ortogonal es unica. Sea (V, ) un espacio eucl
o

deo de dimensin nita y


o
W V . Para cada b V existe un unico vector w V tal que b wW .

Obtencin de la proyeccin ortogonal:


o
o
Razonamiento:
Tomemos la base B = {w1 , . . . , wk } de W . Tomemos el b jo que buscamos. Tenemos que:

w = 1 w1 + . . . + k wk
Entonces:
b wW

(b w, wi ) = 0 para cada wi

(b 1 w1 . . . k wk , wi ) = 0
(b, wi ) = 1 (w1 , wi ) + . . . + k (wk , wi )

Es decir, para cada elemento de la base B nos queda:

(b, w1 ) = 1 (w1 , w1 ) + . . . k (wk , w1 )


.
.
.
(b, wk ) = 1 (w1 , wk ) + . . . k (wk , wk )
Estas ecuaciones se conocen como ecuaciones normales de proyeccin. Esto se resume matricialmente
o
en el sistema:

(w1 , w1 ) . . . (w1 , wk )
1
(b, w1 )

.
.
.
..
.
.
.

. =

.
.
.
.
.
(wk , w1 ) . . . (wk , wk )
k
(b, wk )
[W ]B

Ambas partes del sistema son calculables. Este sistema siempre tiene solucin unica, ya que:
o
[W ]B , la matriz que representa al producto interno de W , es positiva denida, como todo
producto interno.
Como es positiva denida, es necesariamente invertible, ya que det([W ]B ) = 0.
56

Una vez obtenidos 1 , . . . , k se evalua la combinacin lineal para obtener w. Ojo: se pide w, no los
o
i .
Forma mecnica:
a
Para un vector dado b W se busca la proyeccin ortogonal w. Sea B = {w1 , . . . , wk }, se resuelve el
o
sistema:

(b, w1 )

.
.
[]B [w]B =

.
(b, wk )
Luego, [w]B se convierte a lo que corresponda segn el s.e.v. y su base dada.
u
Teorema: Sea W

V , donde V es un espacio eucl


deo con producto interno . Entonces:
V = W W

Corolario: Para b V existen unicos vectores w W y w W tales que b = w + w .

Corolario: Si (V, ) es un e.v. de dimensin nita y W


o

V , entonces:

(W ) = W

12.1.6.

El operador proyeccin PW
o

Denicin: Sea (V, ) un espacio eucl


o
deo y W
PW : V V por:

V , entonces se dene el operador proyeccin


o

PW (b) = w
Donde w es la proyeccin ortogonal de b sobre W .
o
Teoremas:
PW es una transformacin lineal.
o
Im(PW ) = W y Ker(PW ) = W = Im (PW ).
PW PW = PW .
PW + PW = Id.
PW tiene valores propios = 0 con W como subespacio asociado y = 1 con W como
subespacio asociado (PW (b) = b).

57

12.1.7.

El operador reexin RW
o

Denicin: El operador reexin Rw busca entregar el vector simtrico a B en torno a W .


o
o
e

RW (b) = b + 2 (w b) = 2w b
RW (b) = 2PW (b) b

12.2.

Producto punto en Rn

Se considera el espacio eucl


deo (V, ) donde V = Rn y es el producto punto.
Teorema: Im(A) = Ker(AT ).
Corolario: Como consecuencia de lo anterior, se tiene que:
1. Ker(A) = Im(AT ).
2. Im(A) Ker(AT ) = Rm y Im(AT ) + Ker(A) = Rn .
3. Sea W
Rn , con una base B y una matriz A cuyas columnas son cada elemento de la base
respectivo, entonces W = Ker(AT ).
Denicin: Sea A la matriz cuyas columnas son base del espacio eucl
o
deo (Rn , ), entonces la matriz
T A. Esto es fcil verlo, pues para:
del producto punto est determinada por A
a
a

cT
c1 c1 . . . cn c1
1
.

.
.
..
.
.
A = [c1 | . . . |cn ] AT = . AT A =

.
.
.
.
T
cn
c1 cn . . . cn cn

12.2.1.

Factorizacin QR y matrices ortogonales


o

Denicin: Se entiende por factorizacin QR aquella factorizacin matricial para matrices A Mmn
o
o
o
cuyas columnas son l.i.
A = QR
aumentar

Donde Q = [v1 | . . . |vn ] y R =

v1
0
.
.
.
0

ui

v1 u2 . . . v1 un
v2
. . . v2 un
.
.
..
.
.
.
.
.
0
...
vn

Razonamiento de la factorizacin:
o
Sea Amn con columnas l.i.
A = [u1 | . . . |un ]
58

Entonces {u1 , . . . , un } es una base Rm . Se le puede aplicar el proceso de Gram-Schmidt para obtener
la base ortogonal {v1 , . . . , vn }.
k1

Sabemos que: vk = uk
como:

i=1

vi uk
vi = uk = vk +
vi vi

uk = [v1 | . . . |vn ]

k1
i=1

v1 uk
v1 v1
.
.
.
vk1 uk
vk1 vk1
1
0
.
.
.

vi uk
vi . Esto se puede escribir matricialmente
vi vi

posicin k-sima
o
e

A = [v1 | . . . |vn ]

(1)

1 21 31 41 . . . . . .
0
.
.
.
.
.
.
.
.
.
.
.
.
0

32 42
1

43
1
..

n1
.
.
.
.
.
.
.
.
.
.
.
.

..

...

...

...

. n(n1)
... ...
1

nn

(2)

vi uk
vi
2 . Considerando que vi = v , podemos hacer uso de operaciones matriciales
vi
i
elementales. Tenemos que:
Donde ki =

1
A = (1) Ei ( )Ei ()(2)

In
T
Donde Ei es la matriz de la operacin elemental de escalamiento. Como Ei = Ei , a la matriz (1) se
o
le aplica la operacin por columnas, y a A se le aplica la operacin por las. Luego, podemos hacer
o
o
esto para cada columna de (1) y obtener los vectores normales. Es decir,

v1

21 v1

A = [v1 | . . . |vn ]

0
.
.
.

v2

...
..

59

n1 v1
.
.
.

. n(n1) vn1
...
vn

Pero ki vi =

vi uk
= vi uk . Entonces:
vi

v1

A = [v1 | . . . |vn ]

0
.
.
.

v2

v1 u2 . . .

v1 un
.
.
.

..
. vn1 un
...
vn
R

R es de n n, triangular superior e invertible.


Teorema: Sea A Mmn y A = QR. Entonces, QT Q = I.
Es fcil de notar, pues:
a

T
v1
.
.
.
T
vk

T
T
v1 v1 . . . v1 vk
.
.
..
.
= .
.
.
.
Tv
Tv
vk 1 . . . vk k

v1 . . . vk

T
Como {v1 , . . . , vk } es una base ortonormal, tenemos que v1 v1 = v1
para i = j. Entonces,

T
= 1 y que vi vj = vi vj = 0

1 ... 0
.
.
QT Q = . . . . . = I
.
.
0 ... 1
Denicin: Una matriz A es ortogonal si:
o
es cuadrada (A Mnn ).
AT A = I n .
Entonces, si Ann es invertible |A| = 0, tiene factorizacin QR, y por lo tanto Q es ortogonal. Ojo:
o
No toda matriz Q de QR es ortogonal, porque no es necesario que Q sea cuadrada.
Teorema: Sea Q Mnn , entonces las siguientes proposiciones son equivalentes entre s
:
1. Q es ortogonal.
2. QT Q = QQT = In = Q1 = QT .
3. Las columnas de Q forman una base ortonormal de Rn .
4. Qx = x . Ojo, es la norma, y no el vector.
5. Qx Qy = x y.
6. Si {x1 , . . . , xn } es una base ortonormal, entonces {Qx1 , . . . , Qxn } tambin es base ortonormal.
e
60

Observaciones importantes: Las matrices ortogonales adquiere especial importancia por las siguientes razones:
1. Las transformaciones lineales representadas por matrices ortogonales respetan los ngulos y
a
distencias entre los vectores de los espacios de partida y de llegada.
2. Si las columnas de A forman una base ortogonal de Im(A), entonces AT A ser una matriz
a
diagonal. Si forman una base ortonormal, entonces AT A = I.
Observacin: AT A es denida positiva A tiene columnas l.i = A = QR. Por lo tanto,
o
AT A = RT QT QR = RT R
Es decir, tiene una factorizacin de Cholesky con ra
o
ces. Adems AT A representa la matriz del producto
a
punto en la base formada por las columnas de A y el e.v. Im(A).

12.2.2.

Matrices de proyeccin
o

El clculo de proyecciones se vuelve matricial en el espacio eucl


a
deo cannico Rn . El proceso para
o
determinar la matriz es el siguiente:
Razonamiento: Sea W =

w1 , . . . , w k

Rn . Se tiene que:

base
Para w W , w = x1 w1 + . . . + xk wk = Cx
Donde C = [w1 | . . . |wk ] y x = (x1 , . . . , xk )T . Para b Rn se debe cumplir que:
b w = b CxW
Debemos buscar el x, pues este nos entrega la informacin de la combinacin lineal para determinar
o
o
w. Por lo tanto, se debe cumplir que:
T
wi (b Cx) = wi (b Cx) = 0

Las matrices se usan para aglomerar informacin simultneamente, como sistemas de ecuaciones, por
o
a
ejemplo. Por lo tanto, esto se puede resumir en:

T
w1
.
C T (b Cx) = 0, donde C T = .
.
T
wk

Lo que, reescrito, signica que C T b = C T Cx. Donde C T b es un vector calculable y C T C es una matriz
tambin calculable con la informacin entregada. Por lo tanto, es fcil resolver x por los mtodos ya
e
o
a
e
conocidos.
61

Observacin: Este sistema tiene solucin unica, ya que C T C representa al producto punto interno
o
o
de W y es denida positiva, por lo tanto invertible.
Es decir,
x = (C T C)1 Cb
Como w = Pw (b) = Cx, entonces Pw (b) = C(C T C)1 Cb. Hemos encontrado la matriz de la proyeccin.
o
Ojo: C T C es por s invertible, pero no quiere decir que C T y C lo sean. Recordar que es una implicancia

y no una equivalencia este teorema.


Denicin: Sea C Mkn una matriz con columnas l.i., entonces C(C T C)1 C T es una matriz de
o
proyeccin, y representa a la operacin de proyeccin sobre Im(C).
o
o
o
Propiedades:
1. Si C y D pertenecen a Mkn , tienen columnas l.i. e Im(C) = Im(D). Entonces,
C(C T C)1 C T = D(DT D)1 DT
2. Si A = C(C T C)1 C T , entonces Im(A) = Im(C) y Ker(A) = Ker(C T ).
3. Si A es la matriz de proyeccin sobre W , entonces la matriz de proyeccin sobre W es I A.
o
o
4. Si A es la matriz de proyeccin sobre W , entonces la matriz de reexin sobre W es 2A I y
o
o
es I 2A.
sobre W
5. P es matriz de proyeccin sobre W si y solo si P 2 = P y P T = P . Luego, W = Im(P ).
o
6. Si W tiene una base B ortonormal, entonces C es ortogonal, y la matriz de proyeccin viene a
o
ser CC T .
Observacin importante: Sea P la matriz de proyeccin sobre un s.e.v. W
o
o
proyeccin sobre W . Como:
o

Rn y Q la matriz de

dim(W ) + dim(W ) = n
Entonces, se puede elegir calcular la matriz de proyeccin que corresponda al s.e.v. de menor dimensin,
o
o
T C)1 C. Luego de haber calculado,
pues se simplican drsticamente los clculos efectuados sobre C(C
a
a
basta recordar que:

P +Q=I

62

12.2.3.

M
nimos cuadrados

Denicin: Sea Amn , entonces todo vector x0 que es solucin del sistema Ax = PW (b) es una
o
o
solucin por m
o
nimos cuadrados del sistema Ax = b. Si b Im(A), entonces las solucin por m
o
nimos
cuadrados coinciden con las soluciones del sistema. Es decir,
m Ax b
n

xRn

= Ax0 b

Razonamientos: La distancia m
nima de Ax a b cuando no tiene solucin esta dada por w = Ax b,
o
= Ker(AT ). Luego, como w Ker(AT ), se tiene que:
que pertenece a Im(A)
AT w = 0 AT (Ax b) = 0
AT Ax = AT b
Calcular m
nimos cuadrados:
1. Consideramos el sistema Ax = b. Tiene soluciones?
S Solucionamos este sistema. Esa es la solucin
:
o
No: Continue.
2. Se multiplica por la izquierda AT . Entonces se tiene AT Ax = AT b. Tiene columnas l.i.?
S Entonces AT A es positiva denida, ya que representa al producto punto con la base da:
da por las columnas de A, y por lo tanto invertible. Luego, tiene solucin unica el sistema. Por
o
T A)1 AT b.
lo tanto, x = (A
No: Las soluciones son innitas. Simplemente se resuelve el sistema. Todos los datos son conocidos.
Casos concretos / Problemas tipo:
nimos de formas cuadrticas: Una expresin de la forma:
a
o
1. Buscar m
m (x + y + 0 )2 + (x y + 1 )2 + (x + y + 2 )2
n

x,yR

O similares, se pueden calcular de esta forma. Esta expresin se corresponde con la norma al
o
cuadrado de un vector u. En particular, con:

x + y + 0
1
1
0
u = x y + 1 = x 1 + y 1 + 1
x + y + 2
1
1
2

1 1
0
x
u = 1 1
+ 1
y
1 1
2

63

Osea, buscamos:
m u
n

= m n Av b
n

x,yR

vR

Desde aqu ya es posible resolver.


,
nimos
2. Distancia punto-hiperplano: Una forma es con proyecciones ortogonales, otra es con m
cuadrticos. Tenemos un hiperplano H : x0 + v1 , . . . , vk en Rn y un punto c en Rn determinado
a
por sus coordenadas respectivas. Tenemos que cualquier punto del hiperplano es de la forma:
x H x = x0 + 1 v1 + . . . k vk con i R

1
.
x = x0 + [v1 | . . . |vk ] .
.
k
Por lo tanto, la distancia del punto al hiperplano es la m
nima que se pueda dar, ajustando los
i para que se cumpla esto. Es decir, buscamos tambin aquel punto del hiperplano con aquel
e
que la distancia al punto sea m
nima.
Sabemos que este punto es la proyeccin ortogonal (se puede ver grcamente), y buscamos
o
a
por lo tanto:
2

1
.
m x0 + [v1 | . . . |vk ] . c
n
.
i R
k

1
.
= m [v1 | . . . |vk ] . c + x0
n
.
i R
b
k
A
x

El problema se reduce a:
m Ax b
n

xRn

Esto es algo que ya sabemos hacer. Una vez obtenido el x, que tiene los coecientes de nuestra
combinacin lineal, simplemente calculamos el valor de la norma, y tendremos la distancia.
o
Respecto a hiperplanos: Para un hiperplano de ecuacin H : nx = 0 se tiene la ecuacin cartesiana
o
o
aproximada n1 x1 + . . . + nm xm = 0. Luego, se tiene que H = n , ya que este representa al vector
normal al plano.

12.3.

Valores y vectores propios de matrices simtricas


e

Teorema: Sea A Mnn (R) y tal que AT = A, entonces:


1. Todos los valores propios de A son reales.
2. Si 1 = 2 son valores propios de A, entonces Ker(A 1 I)Ker(A 2 I).

64

Observacin: Entonces, para cada valor propio, podemos tomar una base y, mediante el proceso de
o
Gram-Schmidt, obtener una base normal para cada una. Por el teorema anterior, juntar todos los
vectores de todas las bases obtenidas generar en efecto una base ortonormal.
a
Teorema: Sea A Mnn (R) y tal que AT = A, entonces A es diagonalizable.
Entonces, para una matriz simtrica, se puede hacer la factorizacin A = P DP 1 . Considerando la
e
o
base ortonormal para esta factorizacin, se tiene que:
o

P = [v1 | . . . |vn ]

con v1

=1

Entonces, es una matriz ortogonal, y P 1 = P T .


Denicin: Se dir que A Mnn y AT = A fue diagonalizada ortogonalmente si:
o
a
A = P DP T
Donde, A es diagonalizable, y en este caso en particular, P es ortogonal.

65

Das könnte Ihnen auch gefallen