Beruflich Dokumente
Kultur Dokumente
ticas
Facultad de Matema
Departamento de Matematica
Probablemente sea extrao que un resumen tenga aproximadamente 65 pginas, pero Algebra Lineal
n
a
es un curso muy denso en contenidos, deniciones y teoremas. Como dir un profesor de la Facultad,
a
podr resultar incluso ms denso conceptualmente que cursos tan temidos como los Clculos en
a
a
a
F
sica e Ingenier Sin embargo, histricamente ha habido un dejo de mecanizacin en los problemas
a.
o
o
y ejercicios t
picos de este curso, y esto ha llevado a una poca valoracin del contenido conceptual y de
o
la amplia visin que puede dar este curso de toda la Matemtica y su lenguaje. Esto est cambiando en
o
a
a
los semestres prximos, y se est intentando que el curso tenga un enfoque cada vez ms conceptual,
o
a
a
lo que ha incrementado su dicultad.
Por esta razn, urge cada vez ms la comprensin de los conceptos y contenidos explicados, los cuales
o
a
o
no siempre, por no decir nunca, suelen ser entendibles a la primera, y luego se puede proceder a su
sistematizacin, sin nunca abandonar el concepto y el razonamiento detrs.
o
a
Estos apuntes-resumen son el reejo de una buena cantidad de horas invertidas (y no dormidas) en
compendiar de forma lo mejor posible todos los apuntes de todos los profesores que hacen y han hecho
Algebra Lineal alguna vez, sealando adems, los razonamientos fundamentales, cuando estos sean
n
a
necesarios.
En ningn caso estos apuntes reemplazan a los de un profesor del curso, y menos a los que debieran
u
ser tomados en clase, sin embargo, son una referencia rpida a los contenidos del curso una vez
a
asimilados los conceptos, o cuando haya algo particular que recordar. No slo suceder esto durante
o
a
el transcurso del semestre, si no que durante el transcurso de toda la carrera, donde en casi todas las
especialidades requerirn el uso de ciertos conceptos fundamentales vistos en el curso.
a
Exito a todos en el curso, y en el examen. Es posible pasarlo con buena nota, pero requiere el
esfuerzo de comprender cada concepto, por muy tedioso que pueda lucir a veces. Cualquier feedback,
comentario, aporte, sugerencia y/o error detectado en este documento es siempre bien recibido.
Muchas gracias por las colaboraciones de: Pilar Jadue A. (pijadue@uc.cl) y Francisco Carrasco C.
(ftcarrasco@uc.cl) en el desarrollo y/o revisin de estos apuntes.
o
Basado en los apuntes de los profesores:
1. Carla Barrios
2. Carolina Becerra
3. Ivn Huerta
a
Indice
1. Vectores en Rn
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2. Ponderacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
1.4. Geometr en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
1.4.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.5. Rectas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
11
1.6. Hiperplanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2. Sistemas de Ecuaciones
12
12
12
13
14
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
16
2.6.2. El producto Ax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
16
17
3. Matrices
18
18
18
20
3.3.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
20
21
22
22
22
23
23
24
24
24
25
4. Factorizaciones matriciales
25
25
26
4.3. Factorizacin A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
27
4.4. Factorizacin PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
28
29
4.5.1. Resolucin de Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
29
4.5.2. Encontrar A1 b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
4.5.3. Resolver AX = B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
4.5.4. Resolver AT x = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
30
30
31
32
5. Determinantes
33
33
34
34
34
6. Espacios vectoriales
35
35
37
38
7. Subespacios vectoriales
38
7.1. Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
38
39
39
8. Bases y dimensin
o
8.1. Bases
41
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
8.2. Dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
41
42
42
42
43
10.Transformaciones lineales
44
44
10.2. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
46
47
48
49
49
50
50
51
52
12.Ortogonalidad
53
53
53
12.1.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
54
55
56
57
58
58
58
61
12.2.3. M
nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
64
1.
Vectores en Rn
Cabe preguntarse, qu es Rn ? Es una pregunta para la que se requieren elementos tericos antes de
e
o
poder responder, pero por ahora, se puede responder diciendo que es un espacio vectorial. Es decir,
un espacio donde estn contenidos vectores, y se verican algunas operaciones y axiomas bsicos. Por
a
a
ahora, basta con conformarse con la pertenencia de un vector a Rn .
1.1.
Denicin de vector
o
Denicin: Sea n
o
la siguiente:
1
.
v= .
.
= (1 , . . . , n ) =
1 . . . n
donde cada i R y v Rn
A veces se anota , pero no es condicin necesaria. Los vectores se pueden escribir usando simplev
o
mente letras minsculas.
u
a
con vectores es puramente algebraico, esa es una de las ventajas del lgebra lineal.
a
1.2.
Operaciones vectoriales
Existen much
simas operaciones en Algebra Lineal, sin embargo, las ms bsicas, y a partir de las
a a
que se pueden construir las dems, son la suma y la ponderacin por escalar. Algo se dice lineal, si
a
o
verica los axiomas de estas dos operaciones, que sern denidas a continuacin. (Se puede hacer
a
o
alguna referencia de lineal a l
nea, recta?)
1.2.1.
Suma
Rn Rn Rn
dos vectores de
1
.
. +
.
n
1
1 + 1
. =
.
.
.
.
.
n
n + n
Rn
:
R
1.2.2.
Ponderacin
o
x1
x1
. .
. = .
.
.
xn
xn
No confundir: cada xi es un nmero real que dene una coordenada del vector, y x es el vector
u
completo, que pertenece a Rn .
Nota: Prescindiremos de los signos y , pues estos sern representaciones de otras dos operaciones
a
particulares en el lgebra lineal. Todos las dems operaciones, adems de estas, deben evitar usar esta
a
a
a
notacin.
o
1.2.3.
4. Inverso aditivo: x + (x) = 0 . De esta forma, se puede denir la resta vectorial a partir del
inverso aditivo.
5. () x = (x).
6. ( + )x = x + x.
7. (x + y) = x + y.
8. 1x = x.
1
9. x = x, con = 0.
Notar que 0x = 0 .
1.3.
k = 1.
i=1
i Rn
1.4.
Geometr en Rn
a
Incluso para n 4 (e incluso para espacios vectoriales ms extraos an) se puede desarrollar una
a
n
u
geometr en que se incluyan los dos conceptos fundamentales: ngulo y distancia, con la denicin
a
a
o
adecuada de ciertas operaciones, convirtiendo todo el proceso geomtrico en uno algebraico.
e
1.4.1.
Producto punto
x1
y1
. .
. . = x 1 y1 + . . . + x n yn
.
.
xn
yn
4. 0 x = 0 .
5. x x 0.
6. x x = 0 x = 0.
Notar que x y = 0 no implica que x = 0 y = 0 necesariamente, basta notar que:
o
1
1
1
1
=0
Observacin: Esta observacin es importante, pues tiene implicancia en los desarrollos posteriores:
o
o
z1
y1
x1
x2 = y2 + z2
z3
y3
x3
Se tiene que:
x1 =
y1
z1
a
a
1.4.2.
Norma
xx
x =
x1
.
.
.
xn
x1
. =
.
.
xn
x2
i
i=1
Para R2 y R3 se puede hacer la comprobacin. Para espacios de orden superior, basta con hacer uso
o
de la denicin.
o
Propiedades: Sea x, y Rn y R, entonces:
1. x
= x x 0.
2. x = 0 x = 0.
3. x = || x .
4. x + y
= x
+ y
+ 2x y.
x+y x + y
Denicin: Para x, y Rn se dene el ngulo entre vectores como:
o
a
xy
x y
= arc cos
Observaciones:
1. x
y x = y para = 0.
2. xy x y = 0.
Denicin: x Rn se dice unitario si x = 1.
o
Observacin: Para todo vector x Rn se puede obtener su forma unitaria x considerando:
o
x
x
x=
1.4.3.
Distancia
Denicin:
o
1. Un punto P en Rn est representado por su vector posicin, el cual parte desde el or
a
o
gen y llega
hasta el punto P .
2. Sean x, y Rn , estos representan puntos del espacio. Luego, la distancia est determinada por:
a
d(x, y) = y x
1.5.
Rectas
con p, d Rn
Donde p representa el vector posicin, un vector contenido en la recta que indica su posicin con
o
o
respecto al origen, y d representa el vector direccin, el cual se ve determinado por la resta de dos
o
puntos pertenecientes a esta.
Observacin: Sean:
o
L1 : p1 + d1
L2 : p2 + d2
Se tiene que:
10
L1
L2 d1 = d2 .
L1 L2 d1 d2 d1 d2 = 0.
Sean a L1 y b L2 . Entonces, L1 = L2 si y slo si p1 a
o
1.5.1.
p2 b.
Ecuaciones de la recta
con R
x1 = p1 + d1
.
.
con R
.
x = p + d
n
1 x1 + . . . + n xn
1 x 1 + . . . + n x n
El nmero de ecuaciones necesario depende de varios parmetros, pero deben permitir llegar a
u
a
los otros tipos de ecuaciones.
1.6.
Hiperplanos
o
Para poder hacer un estudio ms exhaustivo de los hiperplanos, se requiere el uso de sistemas de
a
ecuaciones.
11
2.
Sistemas de Ecuaciones
2.1.
Conceptos bsicos
a
1
.
.
.
n
n
x1
. =b
.
.
xn
x
11 x1 + . . . + 1n xn = b1
.
.
.
x + . . . + x = b
n1 1
nn n
n
La primera interpretacin es una interseccin de interplanos, es decir, se buscan los vectores x que pero
o
T
tenezcan simultaneamente a varios hiperplanos dados. Se buscarn los vectores x = x1 . . . xn
a
que pertenezcan a todos los hiperplanos dados simultneamente.
a
Denicin: Dos sistemas de ecuaciones se dicen equivalentes si las soluciones de cada sistema coino
ciden.
2.2.
Operaciones elementales
2.3.
Notacin matricial
o
a11 . . . . . .
.
A= .
.
am1
a1n
la 1
.
.
.
. . . . . . amn
11 x1 + . . . + 1n xn = b1
m1 x1 + . . . + mn xn = bn
La notacin es directamente:
o
11 . . . 1n
.
.
..
.
.
.
.
.
m1 . . . mn
Denicin: Todo el sistema de ecuaciones puede resumirse en:
o
Ax = b
Donde se considerar:
a
La matriz de los coecientes, que es aquella que contiene los coecientes dependientes del sistema
de ecuaciones.
La columna de resultados, que contiene los coecientes libres. Es un vector de Rm .
b1
.
b= .
.
bm
13
El vector solucin, que contiene los xi que sern solucin del sistema. Pertenece a Rn .
o
a
o
x1
.
x= .
.
xn
La matriz ampliada, [A|b], que contiene toda la informacin esencial del sistema. Es decir, se
o
toma:
11 . . . 1n b1
.
.
.
..
.
.
.
.
.
.
.
m1 . . . mn bm
En esta ultima notacin, es posible hacer el uso rpido de las operaciones elementales.
o
a
2.4.
a
2. En cada la no nula, avanzando de izquierda a derecha hay un primer elemento distinto de 0 que
se llama pivote. El pivote de cada la siempre est como menos una columna ms a la derecha
a
a
que el pivote de la la anterior.
3. Cada columna que contiene un pivote tiene ceros abajo de l.
e
Denicin: Una matriz est en forma escalonada reducida (F.E.R.) si:
o
a
1. Est en forma escalonada.
a
2. Todos los pivotes son iguales a 1.
3. En cada columna con pivote, el unico elemento distinto de cero es el pivote.
Algoritmo: Para una matriz de Amn , el algoritmo de eliminacin Gaussiana lleva a la matriz A a
o
su F.E. en primera instancia:
1. Se asume que la primera columna no es nula. Si lo fuera, el proceso comienza en la primera que
no sea nula.
2. Buscar el primer elemento de la columna distinto de 0. Si no est en la primera la, se hace una
a
permutacin. Este ser el pivote de la primera la.
o
a
3. Eliminar hacia abajo la columna, dejando ceros bajo el pivote. Para la la i-sima y la columna
e
j esima se realiza considerando la operacin de eliminacin:
o
o
Fi
aij
Fj Fi
ajj
14
Fi
aij
Fj Fj
aii
2.5.
Solucin general
o
S=
#S = 1
#S =
15
2.6.
2.6.1.
Aplicaciones
Sistemas simultneos
a
2.6.2.
El producto Ax
Denicin: Sea x Rn y sea A una matriz de n columnas, las cuales son {v1 , . . . , vn }, entonces se
o
dene el producto de una matriz por un vector:
x1
.
[v1 | . . . |vn ] . = x1 v1 + . . . + xn vn
.
b
xn
A
x
Es decir, al resolver el sistema Ax = b uno tambin puede responder a la pregunta de cules son los
e
a
coecientes que acompaan a v1 , . . . , vn y que determinan al vector b.
n
Teorema: Un sistema de ecuaciones [A|b] es compatible si y solo si el vector b es c.l. de las columnas
de A.
Propiedades:
1. A(x + y) = Ax + Ay.
2. Ax = A (x), con R.
2.6.3.
S = x0 + S0
Denicin:
o
16
El conjunto de vectores {u1 , . . . , un } ser linealmente independiente (l.i.) cuando la unica forma
a
de escribir 0 como combinacin lineal de ellos sea la trivial, es decir, multiplicando cada vector
o
por cero.
1 u1 + . . . + n un = 0 = i = 0 i n
El conjunto de vectores {u1 , . . . , un } ser linealmente dependiente (l.d.) cuando haya otra forma
a
distinta de la trivial para escribir el 0 como c.l. de ellos. Esto implica que al menos uno de ellos
se puede escribir como c.l. del resto de los vectores.
Teorema: Para el conjunto {v1 , . . . , vm } donde cada vi Rn . Si m > n, entonces el conjunto es l.d.
2.6.4.
Las ecuaciones lineales y cartesianas que representan a un hiperplano pueden llevar a su transcripcin
o
a la ecuacin como conjunto generado, y de igual forma la ecuacin derivada de su denicin.
o
o
o
Dado el sistema, este se resuelve pivoteando la matriz respectiva y se obtendrn ecuaciones de la
a
forma. Se revisar un caso concreto. Por ejemplo, se tiene el sistema ya resuelto:
a
x1 +
0 + x3 +
x2 + x3 +
0 + 0 = b1
0 + x5 = b2
x4 + x5 = b3
Luego, las variables libres siempre (pero no exclusivamente) corresponden a las columnas sin pivote.
Se despejan las columnas con pivote, es decir, se despeja en trminos de x1 , x2 , x4 :
e
x1 =
b1 x3
x2 = b2 x3 x5
x4 =
b3 x5
Es decir, nuestro conjunto generado tendr 5 3 = 2 vectores.
a
x1
x2
x3
x4
x5
x=
b1 x3
b2 x3 x5
x3
b3 x5
x5
b1
b2
0
b3
0
17
+ x3
1
0
0
+ x5
Como x3 y x5 son variables libres, e independientes una de otra, pueden ser cualquier valor real. Por
lo tanto, la solucin, o el hiperplano segn corresponda a la interpretacin, queda expreado como:
o
u
o
S=
b1
b2
0
b3
0
1
0
0
posicin
o
Con la prctica adecuada, este mtodo es generalizable a cualquier solucin de sistema de ecuaciones,
a
e
o
e incluso puede ser desprendido el conjunto generado directamente de la matriz.
3.
Matrices
3.1.
Transformaciones lineales en Rn
3.2.
1 0 ... 0 0
.
.
.
ei = ( 0 . . . 1 . . . 0 )T
1
en la posicin i-sima
o e
.
.
.
en =
0 0 ... 0 1
18
x1
.
.
.
xn
con xi R
Es decir todo vector se puede escribir como combinacin lineal de sus vectores cannicos.
o
o
Mtodo: Toda transformacin lineal de Rn en Rm puede ser representada por una matriz cannica.
e
o
o
Es decir, se tiene que:
T (x) = Ax
Con Amn , y x Rn .
Notar que con la observacin anterior, se tiene que:
o
T (x) = T (x1 e1 + . . . + xn en )
T (x) =
=
T (x1 e1 + . . . + xn en )
x1 T (e1 ) + . . . + xn T (en
)
x1
.
= [T (e1 )| . . . |T (en )] .
.
xn
Sabiendo la denicin de la transformacin, se puede calcular fcilmente cada T (ei ). Por lo tanto, la
o
o
a
obtencin de la matriz es directa. Se tiene que:
o
A = [T (e1 )| . . . |T (en )]
Denicin: Dada una t.l. de T : Rn Rm , la matriz de m n:
o
A = [T (e1 )| . . . |T (en )]
es la matriz cannica de la transformacin lineal T.
o
o
19
3.3.
3.3.1.
Operaciones matriciales
Suma
Denicin: Sean A, B matrices de m n, se sabe por teorema que su suma tambin es una transforo
e
macin lineal, considerando que:
o
A = [a1 | . . . |an ]
y B = [b1 | . . . |bn ]
por ceros.
4. Existe el inverso aditivo, A, que cumple que:
A + (A) = O
3.3.2.
A = [a1 | . . . |an ]
Propiedades: Sean A y B matrices de m n y , R, entonces:
1. ( + )A = A + B.
2. (A + B) = A + B.
3. ( + )(A + B) = A + A + B + B.
4. ()A = (A) = (A).
5. 1A = A, (1)A = A y 0A = O.
20
3.3.3.
Multiplicacin de matrices
o
Denicin: Sean A una matriz de mn y B una matriz de np, entonces la matriz AB es una matriz
o
de m p es la multiplicacin de ambas matrices y representa a la composicin de las transformaciones
o
o
lineales respectivas asociadas a ellas. Si
B = [b1 | . . . |bn ]
Entonces:
AB = A [b1 | . . . |bn ] = [Ab1 | . . . |Abn ]
Es decir, si se considera a A por las:
aT
1
.
A= .
.
aT
n
aT b1 . . . aT bn
a1 b1 . . . a1 bn
1
1
.
. =
.
.
..
..
.
.
.
AB = .
.
.
.
.
.
.
an b1 . . . an bn
aT b1 . . . aT bn
n
n
Esta es la denicin que puede resultar ms rpida: producto punto de las por columnas. Para que
o
a a
dos matrices Amn y Bnp puedan multiplicarse. Debe cumplirse que las dimensiones de los extremos
interiores coincidan.
Denicin: Sea n N, la matriz In de n n se conoce como matriz de identidad de orden matriz de
o
identidad de orden n, y est denida como:
a
In = [e1 | . . . |en ] =
1 0 ... 0
.
.
0 1
.
.
..
.
. 0
.
0 0 ... 1
Es decir, es una matriz con unos en la diagonal y ceros en cualquier otra posicin.
o
Propiedades: Asumiendo que A, B y C son matrices que s pueden ser operadas entre s se tiene
,
que:
1. (AB)C = A(BC).
2. A(B + C) = AB + AC, y (A + B)C = AC + BC. Mucho cuidado con multiplicar por la izquierda
o la derecha.
3. (AB) = (A)B = A(B).
4. OA = AO = O con la dimensin que le corresponda.
o
5. Amn In = A, Im A = A.
21
Tenga cuidado:
1. AB = BA en general.
2. NO hay leyes de cancelacin. AB = AC no implica que A = C.
o
3. AB = O no implica que A = O B = O.
o
3.3.4.
Denicin: Sea Amn , entonces se dene la matriz transpuesta de A, que se anota como AT , como
o
una matriz de n m que se obtiene de intercambiar la la como columna.
A = [aij ]mn = AT = [aji ]nm
Observaciones:
1. (x Rn ) (y Rm )
2. x y = xT y.
Propiedades: Para matrices A, B las cuales s pueden ser multiplicadas y/o sumadas entre ellas segn
u
corresponda:
1. (AT )T = A.
2. (A + B)T = AT + B T .
3. (A)T = AT , donde R.
4. (AB)T = B T AT .
3.4.
3.4.1.
con cada ai Rm
22
1. Ker(T ) = {x Rn : Ax = 0}.
2. Im(T ) = a1 , . . . , an = b1 , . . . , bk con k n y donde el conjunto {b1 , . . . , bk } es l.i.
Denicin: Sea T : Rn Rm una t.l. y Amn la matriz cannica asociada. Entonces:
o
o
1. T y su matriz A se dicen inyectivas si y solo si
(x Rn ) (y Rn )
T (x) = T (y) = x = y
Teorema: Sea Amn , entonces todas las siguientes armaciones son equivalentes entre s Si se cumple
.
una, se cumplen todas.
A es sobre.
Las las de A son l.i.
Los sistemas Ax = e1 , . . . , Ax = em son compatibles.
Im(A) = Rm .
El sistema Ax = b tiene solucin para todo b Rm .
o
r(A) = m m n.
Teorema: Anlogamente, para la matriz Bmn las siguientes armaciones son equivalentes:
a
B es 1-1.
Las columnas de B son l.i.
3.5.
Matrices inversas
23
3.5.1.
3.5.2.
3.6.
Teorema: Ann tiene inversa por la izquierda si y solo si A tiene inversa por la derecha.
Corolario:
1. En este caso, la inversa es unica.
24
Denicin: Sea Ann con r(A) = n, entonces la unica matriz que es inversa por la derecha e izquierda
o
se llama matriz inversa de A y unicamente en este caso se anota A1 . Entonces, A es la unica matriz
3.6.1.
Todas las demostraciones de invertibilidad se realizan bajo el siguiente principio: Si B es una matriz
inversa de A, entonces AB = I y BA = I.
(A1 )1 = A.
( R\{0})
(A)1 =
1 1
A .
4.
4.1.
Factorizaciones matriciales
Matrices elementales
Denicin: Son matrices cuadradas que se obtienen al realizar una operacin elemental (permutacin,
o
o
o
escalamiento, eliminacin) a la matriz identidad I.
o
Permutacin: Pij representa la matriz elemental de permutacin, intercambiando la la i con
o
o
la la j, o bien la columa i con la columna j. Ejemplo de (P35 )55 :
1 0 0 0 0
0 1 0 0 0
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
Escalamiento: Ei () representa la matriz elemental de escalamiento, donde se multiplica la la
i (o columna i) por R. Ejemplo de E3 (4)55 :
1 0 0 0 0
0 1 0 0 0
0 0 4 0 0
0 0 0 1 0
0 0 0 0 1
25
Eliminacin: Eij (c) con c R representa la matriz elemental de eliminacin, donde se suma
o
o
a la la i c veces la la j. En eliminacin gaussiana, tenemos que siempre se cumple que i > j.
o
Ejemplo de E23 (4):
1 0 0 0 0
0 1 4 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
Notar que es simplemente ubicar c en la posicin (i, j) de la matriz elemental. Se puede pensar
o
haciendo tambin la misma operacin elemental en la matriz que nos piden.
e
o
4.2.
Matriz Elemental
Pij
Ei ()
Eij (c)
Matriz Inversa
Pij (1)
1
Ei ( ) = 0
Matriz Transpuesta
Pji = Pij (2)
Ei () (3)
Eji (c) (5)
(1) Notar que la operacin inversa de intercambiar una la con otra es volver a intercambiar la misma
o
la de nuevo.
(2) Notar que lo apropiado seria pensar que se intercambian columnas con columnas, pero esto es
exactamente lo mismo que intercambiar las con las en una matriz de permutacin.
o
(3) Aplicarle la transformacin a la la i o a la columna i es exactamente lo mismo, por eso en la
o
transposicin no se altera.
o
(4) Es lo mismo que restarle lo que anteriormente se habia sumado.
(5) Ver la matriz de ejemplo: el nmero agregado se traslada a la posicin (j, i).
u
o
Teorema: Sea Amn una matriz cualquiera y Mmm una matriz elemental, entonces
A = MA
es la matriz obtenida al aplicar a A la operacin elemental que representa la matriz M . Las
o
operaciones elementales se aplican por la izquierda a la matriz.
Importante: Las operaciones elementales por columnas se realizan de la siguiente forma: A = AM T ,
considerando que M es la operacin aplicada a una la. Notar tambin que debe coincidir con la
o
e
multiplicacin de la matriz por la derecha.
o
Recordar: Toda matriz A cuadrada e invertible se puede llevar a su F ER(A) = I, por medio de
operaciones elementales. Por lo tanto, Ok . . . O1 A = I. Luego A = (Ok . . . O1 )1 , donde Oi representa
una operacin elemental.
o
26
4.3.
Factorizacin A = LU
o
Denicin:
o
1. A = (aij )mn es triangular superior si aij = 0 con i > j, es decir, si todos los elementos bajo
la diagonal son ceros. Esto no quiere decir que los elementos en la diagonal o sobre la diagonal
tengan que ser distintos de 0.
2. De forma anloga, B = (bij )mn es triangular inferior si bij = 0 con i < j, es decir, si todos los
a
elementos sobre la diagonal son ceros, sin decir nada sobre los elementos en la diagonal o bajo
ella.
3. C = (cij )mn es diagonal si cij = 0 si i = j. Tambin pueden aparecer ceros en la diagonal!
e
Teoremas: Considerando las deniciones anteriores:
Si A y B son triangulares superiores, entonces AB es triangular superior.
Si A y B son triangulares inferiores, entonces AB es triangular inferior.
Si A y B son ambas triangulares superiores o inferiores con 1s en la diagonal, entonces AB es
triangular superior o inferior segn corresponda, y con 1s en la diagonal.
u
Si A es triangular inferior y triangular superior, entonces A es diagonal. Por ejemplo, la matriz
0 es diagonal.
Si A es triangular superior AT es triangular inferior. La expresin rec
o
proca tambin se
e
verica.
Si A es triangular superior e invertible A1 es triangular superior. Basta con notar que los
pivotes ya estar determinados en este caso. Si presenta unos en la diagonal, la matriz inversa
an
tambin los presentar.
e
a
Denicin: Sea Amn una matriz que no requiera operaciones de permutacin para ser llevada a su
o
o
FE, es decir, basta con usar operaciones elementales de eliminacin, entonces
o
A = LU
donde:
L es una matriz triangular inferior cuadrada de m m.
U es una matriz triangular superior que corresponde a una forma escalonada de A.
Obtencin de U: Simplemente se lleva A a su F.E. registrando las operaciones elementales efectuadas.
o
Obtencin de L: A F E(A) = Ek . . . E1 A. Donde Ei representa una operacin elemental
o
o
de eliminacin. Notar que todas las Ei son triangulares inferiores con unos en la diagonal (pues en la
o
eliminacin gaussiana i > j).
o
U = Ek . . . Ei A
L1
1
1
L = (Ek . . . E1 )1 = E1 . . . Ek
27
Importante: Recordemos que para las matrices de eliminacin se cumple que Eij (c)1 = Eij (c) en
o
L, luego, y slo en el caso de la obtencin de L operaciones consecutivas de eliminacin verican
o
o
o
que se ubicarn en su respectivo casillero en la matriz nal. Por ejemplo:
a
1 0 0
1 0 0
1 0 0
1 0 0
3 1 0 0 1 0 0 1 0 = 3 1 0
0 0 1 1 0 1
0 2 1
1 2 1
Esto slo se verica debido al orden en que se multiplican las matrices de eliminacin debido a la
o
o
factorizacin LU , por lo que no es una generalidad para el producto de matrices elementales de
o
eliminacin.
o
Observacin: Si describimos Amn
o
lk,i Ui .
i=1
A1
1
. .
..
. = .
.
.
.
lm1
Am
O
U1
.
.
.
1
Um
A1 = 1 U1
.
.
.
A4 = l41 U1 + l42 U2 + l43 U3 + U4
.
.
.
o
n
Am = lm1 U1 + lm2 U2 + . . . + 1 Um slo el ultimo termino va acompaado de un 1.
m trminos
e
Se concluye que la la i-sima de A es una c.l. de todas las las de U con la la i-sima de L como
e
e
coecientes.
4.4.
Factorizacin PA = LU
o
U = Ei . . . E1 Pk . . . P1 A
P
4.5.
Aplicaciones de la factorizacin PA = LU
o
Sabiendo P , L y U se pueden resolver todos estos tipos de problemas sin la necesidad de encontrar A.
4.5.1.
Resolucin de Ax = b
o
Ax
P Ax
L Ux
= b
= Pb
= Pb
4.5.2.
Encontrar A1 b
A1 b = x
b
= Ax
Este sistema se resuelve como en el caso anterior.
29
4.5.3.
Resolver AX = B
P \
AX
P AX
L UX
= B
= PB
= PB
Resolver AT x = b
4.5.4.
P A = LU /( )T AT P T = U T LT AT = U T LT P
Entonces:
AT x = b U T LT P x = b
y
z
4.6.
Factorizacin de Cholesky
o
4.6.1.
Denicin: Ann es simtrica si y slo si A = AT , lo que viene a signicar que cada trmino se ve
o
e
o
e
reejado por la diagonal de la matriz.
Primera Factorizacin de Cholesky: Si A es simtrica y factorizable como A = LU , es decir, no
o
e
se requieren operaciones de permutacin para factorizarla, entonces:
o
A = LDLT
donde:
L ya lo conocemos.
D es una matriz diagonal, que contiene a la diagonal de U .
30
4.6.2.
Formas cuadrticas
a
x1
.
Denicin: Una forma cuadrtica es una funcin Q : Rn R si para todo x = . se cumple que
o
a
o
.
xn
i1
mi x2 +
i
i=1
rij xi xj .
i=1 j=1
Notar: Q( 0 ) = 0 R.
Clasicacin de Formas Cuadrticas:
o
a
d11
O
..
.
dnn
uT
4.6.3.
o
Corolario: Todas las submatrices de una matriz denida positiva son invertibles.
Mtodo de factorizacin: Sea A denida positiva, tenemos que A = LDLT . Se sigue que:
e
o
d11
O
..
D=
.
dnn
O
Se tiene que (i n) dii > 0. Por lo tanto,
T
D= D =
d11
..
T
Luego A = L D DLT = ( DLT )T DLT .
RT
32
O
.
dnn
5.
Determinantes
o
las siguientes tres propiedades fundamentales:
1. det(I) = 1.
2. Propiedad alternante: Siendo A una matriz obtenida al intercambiar dos las de A, entonces
det(A) = det(A).
3. Propiedad multilineal :
T
f1
.
.
.
T
f1
.
.
.
T
T
fi1
fi1
T = uT +
+ v
T
T
fi+1
fi+1
.
.
.
.
.
.
T
T
fn
fn
uT
T
f1
.
.
.
T
fi1
vT
T
fi+1
.
.
.
T
fn
5.1.
Propiedades bsicas
a
det(P A) = (1)r A. Donde P es una matriz producto de r operaciones elementales de permutacin.
o
Si A tiene dos las iguales, entonces det(A) = 0. De forma anloga si A tiene una la con ceros.
a
Respecto a matrices elementales:
det(Pij ) = 1
det(Ei ()) =
det(Eij (c)) = 1
Si A es triangular, det(A) =
lii .
i=1
A es invertible det(A) = 0.
det(AB) = det(A) det(B).
det(A1 ) =
1
.
det(A)
det(AT ) = det(A).
33
5.2.
Clculo de determinantes
a
Recursin
o
a b
= ad bc.
c d
a1 a2 a3
b b
b b
b b
b1 b2 b3 = a1 2 3 a2 1 3 + a3 1 2 .
c2 c3
c1 c3
c1 c2
c1 c2 c3
Denicin: Para Ann se dene Aij como la matriz de (n 1) (n 1) que se obtiene al eliminar
o
la la i-sima y la columna j-sima.
e
e
n
es decir, i = 1.
n
5.3.
Teorema: Sea A una matriz simtrica y Ai con i = 1, . . . .n las submatrices principales de A, se tiene
e
que:
1. A es denida positiva si y slo si det(Ai ) > 0 i.
o
2. A es denida negativa si y slo si (1)i det(Ai ) > 0 i.
o
5.4.
Entonces, det(A) =
aij Co(aij ) =
j=1
aij Co(aij ).
i=1
1
1
Adj(A) A = Inn . A1 =
Adj(A).
det(A)
det(A)
A1 !
6.
Espacios vectoriales
6.1.
Cuerpos nitos
Denicin: Un cuerpo K es un conjunto de elementos que satisfacen los siguientes axiomas bsicos
o
a
para la suma y el producto:
Suma: Operacin cerrada: K K K.
o
1. Conmutatividad : x + y = y + x.
2. Asociatividad : x + (y + z) = (x + y) + z.
3. Existencia de neutro aditivo: Existe un 0k tal que x + 0k = x.
4. Existencia de inverso aditivo: de modo que el elemento sumado a su inverso den el elemento
neutro.
x + (x) = 0k
Producto: Operacin cerrada: K K K.
o
1. Conmutatividad : x y = y x.
2. Asociatividad : x (y z) = (x y) z.
3. Existencia de inverso aditivo: Existe un 1k tal que x 1k = x.
4. Existencia de un inverso aditivo: Para todo x = 0k existe un x1 tal que x x1 = 1.
Distributividad: x (y + z) = x y + x z.
Teorema: Zn es un cuerpo si y slo si Zn = Zp con p primo.
o
Denicin: Para n Z se dene:
o
n md p = i n = k p + i, i {1, . . . , p 1}
o
Observaciones:
m n = (m + n) md p.
o
35
m n = (m + n) md p.
o
Para las operaciones de suma y multiplicacin basta realizar la operatoria real y luego aplicar
o
mdulo.
o
a
= x a = b x. Esta forma optimiza el clculo de fracciones. Slo es vlido si b md p = 0.
a
o
a
o
b
Se pueden hacer todas las operaciones en R y luego convertir a Zp cuidando de no efectuar una
divisin por un mltiplo de p.
o
u
#Zn = pn .
p
v1 Zn # < v1 >= p.
p
Proposiciones:
1. m md p + n md p = m n.
o
o
2. m md p n md p = m n.
o
o
:
1. Asociatividad: (x y) z = x (y z).
2. Conmutatividad: x y = y x.
3. Inverso aditivo: x (p x) = 0.
:
1. Asociatividad: (x y) z = x (y z).
2. Conmutatividad: x y = y x.
Propiedad distributiva:
(x y) z = (x z) (y z).
36
6.2.
Denicin: Un conjunto no vac E (con sus vectores) es un espacio vectorial (e.v.) sobre un cuerpo
o
o
K (con sus escalares) si tiene denidas dos operaciones binarias y cerradas:
Suma : E E E.
Ponderacin
o
: E K E.
1K = x.
2. Asociatividad. (, K)(x E) ()
x) =
x=
x).
0K
x = 0E .
0E = 0E .
37
(1)
x = (x).
x = 0 = = 0 x = 0E .
6.3.
Combinaciones lineales
i K, 1 i n
2. Se dene el conjunto generado por S como el conjunto de todas las c.l. de los vectores de S.
S = {x : x es c.l. de S}
3. El conjunto S es linealmente independiente (l.i.) si la unica forma de escribir 0E como c.l. de
7.
Subespacios vectoriales
7.1.
Denicin
o
E.
Teorema: Sea S un subconjunto no vac de E, e.v. sobre K. S es s.e.v. si y slo si se cumple que:
o
o
1. S es cerrado bajo la suma: x, y S = x + y S.
2. S es cerrado bajo la ponderacin por escalar: x S, K =
o
x S.
7.1.1.
Con los dos teoremas anteriores se tienen dos mtodos para demostrar que S es un s.e.v. de E:
e
Mtodo 1: Para demostrar que S es un s.e.v. de E, basta demostrar que:1
e
1. S E y S = . En particular, demostrar que 0E S.
2. S es cerrado bajo suma.
3. S es cerrado bajo ponderacin.
o
Mtodo 2: Expresar como conjunto generado. Evidentemente, algo no del estilo , pero por ejemplo
e
0E s es un s.e.v.
7.2.
No olvidar:
1. x A B x A x B.
2. x A B x A x B.
3. A B = {0E } 1 a1 + ... + n an = 1 b1 + . . . + n bn tiene solucin trivial.
o
Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 S2 tambin es s.e.v. de E.
e
Importante: S1 S2 E, pero no necesariamente es s.e.v., pues puede no ser cerrado bajo la suma
o la multiplicacin.
o
Teorema: Sean S1 y S2 s.e.v. sobre E, entonces S1 S2 es s.e.v. de E si y slo si S1 S2 S2 S1 .
o
o
Demostracin: 2 Recordar que para demostrar una equivalencia (si y slo si) se debe demostrar la
o
o
implicancia para ambos lados, es decir:
(p q) (p q) (q p)
(=)
Lo haremos para S1 S2 . La otra demostracin es anloga.
o
a
Observaciones:
1. A A B y B A B.
2. S1 S2 (x S1 = x S2 )
1
2
39
por demostrar
(p q) = r
expr. equivalente
s1 + s2 s1 = s2 S1
Hemos demostrado que s2 S2 = s2 S1 S2 S1 . Por lo tanto, se cumple tambin esto.
e
Como se han vericado ambas implicancias, queda entonces demostrado.
Denicin: Sean S1 y S2 dos s.e.v. de E, se dene:
o
S1 + S2 = {x E : x = s1 + s2 con s1 S1 y s2 S2 }
Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 + S2 es s.e.v. de E.
Teorema: Si S1 = A y S2 = B , entonces S1 + S2 = A B .
Denicin: Sean S1 y S2 subespacios vectoriales de E, entonces S1 + S2 es suma directa si:
o
i) S1 + S2 = E.
ii) S1 S2 = {0E }.
Se anota entonces S1 S2 = E. Notar que: v1 , . . . , vn = v1 , . . . , vi1 vi , . . . , vn .
Nota: Razonamiento para la interseccin de s.e.v. Para probar que U V = {0E }, tomamos dos
o
bases:
BU = {u1 , . . . , um } y BV = {v1 , . . . , vn }. Luego, por denicin de interseccin:
o
o
40
U V = {x : x = 1 u1 + . . . + m um x = 1 v1 + . . . + n vn }.
Por lo que:
1 u1 + . . . + m um = 1 v1 + . . . + n vn
Es decir,
i ui
i=1
k vk = 0E
k=1
de esta forma, el unico elemento que satisfacer esta condicin ser exactamente 0E . Es decir:
a
o
a
n
= 0E , pues i = 0
i ui
i=1
vector de
i vi
= 0E , pues i = 0
i=1
vector de
8.
Bases y dimensin
o
8.1.
Bases
8.2.
Dimensin
o
Teorema: Sea S E sobre K cuya base tiene n vectores. Todo conjunto de vectores l.i. de S tiene a
lo ms n vectores.
a
Teorema: Sea S
E sobre K cuya base tiene n vectores. Toda base de S tiene exactamente n vectores.
41
8.3.
Completacin de bases
o
Teorema: Sea S
alguna base de S.
Teorema: Sea S1
9.
9.1.
Observacin: En una base el orden de los vectores s importa. Se habla de bases ordenadas de E.
o
Teorema: Sea B = {b1 , . . . , b2 } una base de E. Entonces existe una unica c.l. de x E con esa base.
Denicin: Sea B = {b1 , . . . , bn } una base de E. Para x E se dene su vector coordenada como
o
1
.
[x]B = . Kn x = 1 b1 + . . . + n bn
.
n
De preferencia se puede entender que b1 , . . . , bn estn en trminos de la base cannica.
a
e
o
() Ejemplo de base cannica: R3 =
o
e1 , . . . , e 3
base cannica
o
42
o
2. [x + y]B = [x1 ]B + [x2 ]B .
3. [x]B = [x]B .
4. {x1 , . . . , xn } es l.i. {[x1 ]B , . . . , [xn ]B } Kn .
9.2.
Denicin: Sea S E sobre K. [Id]B2 es la unica matriz de cambio de base que cambia las coordeo
B1
nadas en base B1 a coordenadas en base B2 para un vector t S y B1 y B2 bases de S. Esto implica
que:
(x S)
B2
= Id
B2
B1
B1
0
()
1
.
()? Es un vector coordenada de B1 . En particular, es tomar [x1 | . . . |xn ] . = x1 . La pregunta
.
0
que falta es, a qu se puede igualar esto? La idea detrs de la matriz de cambio de base es convertir
e
a
un vector expresado en ciertas coordenadas a otra base. Por lo tanto, se debe buscar 1 , ..., n de
modo que x1 = 1 y1 + . . . + n yn . De esta forma, se tiene que:
[1 y1 + . . . + n yn ]B2
1
.
= . = [Id]B2
.
B1
n
1
. =c
.
1
.
0
[x1 ]B1
43
1
.
. = c1
.
n
Cmo se obtienen las dems columnas? De la misma forma! Por lo tanto, el proceso de determinacin
o
a
o
de la matriz de cambio de bases se puede resumir en lo siguiente:
Algoritmo: Considerar una base cannica Be , tomar la siguiente matriz
o
[y1 ]Be | . . . |[yn ]Be |[x1 ]Be |...|[xn ]Be
y pivotearla. Es evidente, dado que ambos conjuntos son l.i., que los pivotes aparecern en y1 . Incluso,
a
como es base, y es un conjunto l.i., se pivotear hasta llegar a I. Luego, se puede resolver cada sistema
a
[B2 ]xi individualmente. Sea ui cada solucin, se resume que:
o
F ER
= [In | u1 | . . . |un ]
B
[Id]B2
1
[Id]B2
B1
= [u1 | . . . |un ]
El mtodo general es resolver cada sistema, pero para operaciones no tan evidentes, este mtodo puede
e
e
simplicar mucho la tarea. Sin embargo, este mtodo es vlido, pues se sustenta en el hecho de que el
e
a
cambio de coordenadas es una operacin lineal.
o
Observacin: La matriz de cambio de base [Id]B2 es:
o
B1
1. Cuadrada, pues son n las para n vectores de la base y n columnas para tener congruencia en
el producto de matriz por vector.
2. Con columnas y las l.i., pues la multiplicacin por la matriz debe ser una operacin biyectiva
o
o
(a cada vector coordenada en B1 le corresponde un unico vector coordenada en B2 y viceversa).
10.
10.1.
Transformaciones lineales
Conceptos bsicos
a
Denicin: Sean U y V e.v. sobre un mismo cuerpo K. Una funcin T : U V es una transforo
o
macin lineal (t.l.) si y slo si:
o
o
1. T (u1 + u2 ) = T (u1 ) + T (u2 )
con u1 , u2 U .
2. T (u1 ) = T (u1 ).
En ambos casos, la operacin se hace primero en U y en el segundo lado de la igualdad en V .
o
Propiedades: Considerando nuevamente U y V .
44
1. T (0U ) = 0W .
2. Siendo A U , entonces T ( A ) = T (A) .
3. S es s.e.v. de U = T (S) es s.e.v. de V . (Como cada s.e.v. se puede expresar como conjunto
generado, es consecuencia de 2)
Denicin: Sea T : U V una t.l. Se dene:
o
1. el kernel o ncleo como Ker(T ) = {u U : T (u) = 0V }.
u
2. la imagen como Im(T ) = {v V : u U : T (u) = v}.
Teorema: Sea T : U V una t.l., entonces:
1. Ker(T ) es un s.e.v. de U .
2. Im(T ) es un s.e.v. de V .
Teorema: (del Ncleo-Imagen) Sean U y V e.v. sobre K y de dimensin nita y T : U V una
u
o
t.l. Entonces:
dim U = dim(Ker T ) + dim(Im T )
Este teorema es clave para la determinacin de ncleo e imgenes de transformaciones lineales, pues
o
u
a
indica fcilmente la dimensin y el nmero de vectores de un conjunto generado conociendo el otro.
a
o
u
Para el caso de matrices, simplemente se puede resumir en:
nmero de columnas = nmero de columas no l.i. +
u
u
cantidad de vectores del Ker
10.2.
Isomorsmos
10.3.
BV
= Amn [u]BU
Cmo determinarla?
o
1. Decidir o considerar las bases pertinentes. Para el caso de la denicin se puede tomar:
o
BU = {u1 , . . . , un }
BV = {v1 , . . . , vm }
2. Considerar A por columnas:
A = [a1 | . . . |an ]
3. Se quiere sacar cada columna de A, luego, lo prudente ser ir multiplicndola por cada ei
a
a
correspondiente, como se hac anteriormente. Recordar aqu que:
a
1
.
A . = A[u1 ]BU = a1
.
0
4. A priori se conoce la transformacin lineal. Por lo tanto, se conoce T (ui ). Conociendo la base,
o
es tambin posible determinar T (ui )
e
.
BV
BV
= ai columna i-sima de A
e
BV
. . . T(un )
46
BV
BV
BU
T 1
Corolario:
BV
BU
BV
BV
BU
existe.
BU
10.4.
Propiedades: Las propiedades de las matrices de transformacin son las mismas que las de las
o
matrices ya estudiadas:
1. T1 + T2
2. T1
BV
BU
3. T3 T1
BV
BU
= T1
= T1
BW
BU
BV
BU
BV
BU
= T3
+ T2
BV
BU
BW
BV
T1
BV
BU
Para todos los clculos, el lgebra de matrices puede ser aplicada, por lo que se verican las mismas
a
a
propiedades para todas las transformaciones lineales.
Observacin: Sean
o
1
2
BU y BU bases de U .
1
2
BV y BV bases de V .
T : U V una t.l.
T
1
BV
1
BU
y T
2
BV
2
BU
Entonces:
2
BV
2
BU
= Id
2
BV
1
BV
47
1
BV
1
BU
Id
1
BU
2
BU
10.5.
Problema tipo 1: Sea T : U V una transformacin lineal de modo que para x U existe algn
o
u
y V tal que:
T (x) = y
(Es decir, se entrega la denicin de la transformacin lineal como se estime pertinente)
o
o
Determinar bases A y B para U y V respectivamente de modo que la matriz de la transformacin sea
o
T = [c1 | . . . |cn ]
ci Km
.
.
.
cn = T (an )
0
.
Si aparece una columna de la forma ci = . quiere decir que ai Ker(A).
.
0
En dichos casos, ser necesario determinar los elementos del Ker de la matriz a partir de la denicin
a
o
entregada. En la posicin i-sima de la base deber aparecer un elemento del ncleo de la matriz. Los
o
e
a
u
dems elementos de la base se seleccionan de modo que el conjunto quede l.i. (lo ms sencillo, por lo
a
a
tanto, es elegir elemento de la base cannica o la base que simplique lo ms posible los clculos).
o
a
a
La base del conjunto de partida debiera estar determinada. Ahora importa la base del conjunto de
llegada. Como sabemos cada elemento ai , podemos determinar sin complicacin cada T (ai ), pues
o
48
sabemos la denicin de la trasnformacin que se nos entrega, adems de la matriz. En caso contrario,
o
o
a
el ejercicio no tendr solucin.
a
o
Pensemos de nuevo en la base. Esta est determinada por
a
B = {b1 , . . . , bm }
Cada bi es lo que se desea determinar. Sabemos que:
T (ai )
i1
.
= ci = .
.
im
T (ai ) = i1 b1 + . . . + im bm
Donde conocemos T (ai ) y cada ik . Tomando una base cannica D, el problema se reduce a determinar
o
una matriz [b1 | . . . |bn ] conociendo soluciones al sistema
b1
| . . . | bn
ci = T (ai )
. El problema
ser que pueden aparecer vectores que no son l.i., o que el conjunto quede con una dimensin menor
a
o
que el conjunto de llegada. Como se soluciona? Se completan bases, de modo que el conjunto quede
l.i., y slo los primeros trminos representen a la imagen del conjunto.
o
e
11.
11.1.
El valor propio como aquel R para el que existe un Rn distinto de 0 tal que:
x
A =
x
x
Observacin: La forma pertinente de calcular es primero el valor propio, y luego los vectores propios
o
asociados a ese valor.
11.2.
Este polinomio es de grado n, y por Teorema Fundamental del Algebra, se sabe que tiene n ra
ces
complejas (no necesariamente distintas).
Denicin: Sea i ra de pA () (y por lo tanto, un valor propio de A). Entonces, se entiende por
o
z
multiplicidad algebraica de i al nmero de veces que i es ra de pA (). Es decir, el polinomio
u
z
caracter
stico puede factorizarse como:
pA () = ( i )ai qA () ai N
Cmo calcular valores propios?: Sacar ra
o
ces de pA () segn se necesiten las reales y/o las
u
complejas.
11.3.
Ax1
= 1 x1
Axn
Ker!
.
.
.
.
.
.
= n xn (A n In )xn = 0
3. Con lo anterior, se ve que simplemente hay que calcular individualmente el Ker de cada matriz
A x1 por pivoteo o el mtodo que se estime conveniente (i.e. Regla de Cramer).
e
4. Vericar que ninguna solucin al Ker sea trivial, pues en ese caso i no corresponde a un valor
o
propio (det(A i In ) = 0).
Denicin: Sea A Mnn (R), entonces:
o
50
i . Es decir, el
Denicin: Se dene la traza de una matriz cuadrada A como la suma de los elementos de la diagonal
o
principal. Es decir,
a11
.
..
Si A = .
.
.
an1
a1n
. , entonces tr(A) =
.
.
ann
aii
i=1
11.4.
Denicin: Una matriz A Mnn se dice diagonalizable si las bases de los subespacios propios
o
correspondientes a los distintos valores propios de A forman una base de Rn .
Teorema: Sea 1 = 2 valores propios de una matriz A. Si x1 es vector propio correspondiente a 1
y x2 es vector propio correspondiente a 2 , entonces el conjunto {x1 , x2 } es l.i.
zable si dim(Rn ) =
dim(Ui ) = n.
i=1
Denicin: Sea A Mnn . Diremos que A es diagonalizable si y solo si A es similar a una matriz
o
diagonal. Es decir, si existen dos matrices Pnn invertible y Dnn en Mnn tales que:
A = P DP 1
Donde P = [x1 | . . . |xn ] y xi es un vector propio de
1
.
D= .
.
0
Ay
..
.
0
.
.
.
n
11.4.1.
veces
52
12.
12.1.
Ortogonalidad
Espacios vectoriales con producto interno
12.1.1.
(v1 , v1 ) . . . (v1 , vn )
.
.
..
.
.
[]B =
.
.
.
(vn , v1 ) . . . (vn , vn )
Y si (x, y) = , entonces [x]T []B [y]B = .
B
Propiedades:
1. []B es simtrica.
e
2. (x, x) es una forma cuadrtica positiva denida.
a
3. Teorema: Sea V un e.v. sobre R con dim(V ) = n y B una base de V . Entonces una funcin
o
: V V R es un producto interno si y solo si existe una matriz Mnn simtrica y positiva
e
denida tal que:
(x, y V ) (x, y) = [x]T M [y]B
B
53
12.1.2.
Norma
x =
(x, x)
= x
+ y
+ 2(x, y).
3. x 0 y x = 0 x = 0.
4. Desigualdad de Cauchy-Schwartz :
|(x, y)| x
5. Desigualdad triangular :
x + y x+y
Denicin: Se dene el ngulo entre dos vectores x e y en el espacio eucl
o
a
deo (V, ) como:
12.1.3.
(x, y)
x y
Concepto de ortogonalidad
V.
V , entonces B = S .
4. Si C1 C2 , entonces C2 C1 .
54
12.1.4.
(v1 , b2 )
(v1 , b2 )
v2 = b2
v1
(v1 , v1 )
(v1 , v1 )
(v1 , b3 )
(v1 , v1 )
y a32 =
(v2 , b3 )
(v2 , v2 )
vk = bk
j=1
(vj , bk )
vj
(vj , vj )
Cmo garantizamos que el conjunto es l.i.? Porque al ser ortogonales, por teorema, son l.i. No hace
o
falta, por lo tanto, demostrar que sean l.i., si no ms bien sealar esta condicin.
a
n
o
De esta forma, obtenemos cada vk .
Parte 2: Determinacin de la base ortonormal.
o
Supongamos que la base a buscar es V = {v1 , . . . , vn }. Tenemos que:
vk =
vk
vk
vk
= 1.
vk
55
vk
vk
12.1.5.
Proyecciones ortogonales
V . Entonces para x V se
w W.
b wW .
Teorema: La proyeccin ortogonal es unica. Sea (V, ) un espacio eucl
o
w = 1 w1 + . . . + k wk
Entonces:
b wW
(b w, wi ) = 0 para cada wi
(b 1 w1 . . . k wk , wi ) = 0
(b, wi ) = 1 (w1 , wi ) + . . . + k (wk , wi )
(w1 , w1 ) . . . (w1 , wk )
1
(b, w1 )
.
.
.
..
.
.
.
. =
.
.
.
.
.
(wk , w1 ) . . . (wk , wk )
k
(b, wk )
[W ]B
Ambas partes del sistema son calculables. Este sistema siempre tiene solucin unica, ya que:
o
[W ]B , la matriz que representa al producto interno de W , es positiva denida, como todo
producto interno.
Como es positiva denida, es necesariamente invertible, ya que det([W ]B ) = 0.
56
Una vez obtenidos 1 , . . . , k se evalua la combinacin lineal para obtener w. Ojo: se pide w, no los
o
i .
Forma mecnica:
a
Para un vector dado b W se busca la proyeccin ortogonal w. Sea B = {w1 , . . . , wk }, se resuelve el
o
sistema:
(b, w1 )
.
.
[]B [w]B =
.
(b, wk )
Luego, [w]B se convierte a lo que corresponda segn el s.e.v. y su base dada.
u
Teorema: Sea W
V , entonces:
(W ) = W
12.1.6.
El operador proyeccin PW
o
PW (b) = w
Donde w es la proyeccin ortogonal de b sobre W .
o
Teoremas:
PW es una transformacin lineal.
o
Im(PW ) = W y Ker(PW ) = W = Im (PW ).
PW PW = PW .
PW + PW = Id.
PW tiene valores propios = 0 con W como subespacio asociado y = 1 con W como
subespacio asociado (PW (b) = b).
57
12.1.7.
El operador reexin RW
o
RW (b) = b + 2 (w b) = 2w b
RW (b) = 2PW (b) b
12.2.
Producto punto en Rn
cT
c1 c1 . . . cn c1
1
.
.
.
..
.
.
A = [c1 | . . . |cn ] AT = . AT A =
.
.
.
.
T
cn
c1 cn . . . cn cn
12.2.1.
Denicin: Se entiende por factorizacin QR aquella factorizacin matricial para matrices A Mmn
o
o
o
cuyas columnas son l.i.
A = QR
aumentar
v1
0
.
.
.
0
ui
v1 u2 . . . v1 un
v2
. . . v2 un
.
.
..
.
.
.
.
.
0
...
vn
Razonamiento de la factorizacin:
o
Sea Amn con columnas l.i.
A = [u1 | . . . |un ]
58
Entonces {u1 , . . . , un } es una base Rm . Se le puede aplicar el proceso de Gram-Schmidt para obtener
la base ortogonal {v1 , . . . , vn }.
k1
Sabemos que: vk = uk
como:
i=1
vi uk
vi = uk = vk +
vi vi
uk = [v1 | . . . |vn ]
k1
i=1
v1 uk
v1 v1
.
.
.
vk1 uk
vk1 vk1
1
0
.
.
.
vi uk
vi . Esto se puede escribir matricialmente
vi vi
posicin k-sima
o
e
A = [v1 | . . . |vn ]
(1)
1 21 31 41 . . . . . .
0
.
.
.
.
.
.
.
.
.
.
.
.
0
32 42
1
43
1
..
n1
.
.
.
.
.
.
.
.
.
.
.
.
..
...
...
...
. n(n1)
... ...
1
nn
(2)
vi uk
vi
2 . Considerando que vi = v , podemos hacer uso de operaciones matriciales
vi
i
elementales. Tenemos que:
Donde ki =
1
A = (1) Ei ( )Ei ()(2)
In
T
Donde Ei es la matriz de la operacin elemental de escalamiento. Como Ei = Ei , a la matriz (1) se
o
le aplica la operacin por columnas, y a A se le aplica la operacin por las. Luego, podemos hacer
o
o
esto para cada columna de (1) y obtener los vectores normales. Es decir,
v1
21 v1
A = [v1 | . . . |vn ]
0
.
.
.
v2
...
..
59
n1 v1
.
.
.
. n(n1) vn1
...
vn
Pero ki vi =
vi uk
= vi uk . Entonces:
vi
v1
A = [v1 | . . . |vn ]
0
.
.
.
v2
v1 u2 . . .
v1 un
.
.
.
..
. vn1 un
...
vn
R
T
v1
.
.
.
T
vk
T
T
v1 v1 . . . v1 vk
.
.
..
.
= .
.
.
.
Tv
Tv
vk 1 . . . vk k
v1 . . . vk
T
Como {v1 , . . . , vk } es una base ortonormal, tenemos que v1 v1 = v1
para i = j. Entonces,
T
= 1 y que vi vj = vi vj = 0
1 ... 0
.
.
QT Q = . . . . . = I
.
.
0 ... 1
Denicin: Una matriz A es ortogonal si:
o
es cuadrada (A Mnn ).
AT A = I n .
Entonces, si Ann es invertible |A| = 0, tiene factorizacin QR, y por lo tanto Q es ortogonal. Ojo:
o
No toda matriz Q de QR es ortogonal, porque no es necesario que Q sea cuadrada.
Teorema: Sea Q Mnn , entonces las siguientes proposiciones son equivalentes entre s
:
1. Q es ortogonal.
2. QT Q = QQT = In = Q1 = QT .
3. Las columnas de Q forman una base ortonormal de Rn .
4. Qx = x . Ojo, es la norma, y no el vector.
5. Qx Qy = x y.
6. Si {x1 , . . . , xn } es una base ortonormal, entonces {Qx1 , . . . , Qxn } tambin es base ortonormal.
e
60
Observaciones importantes: Las matrices ortogonales adquiere especial importancia por las siguientes razones:
1. Las transformaciones lineales representadas por matrices ortogonales respetan los ngulos y
a
distencias entre los vectores de los espacios de partida y de llegada.
2. Si las columnas de A forman una base ortogonal de Im(A), entonces AT A ser una matriz
a
diagonal. Si forman una base ortonormal, entonces AT A = I.
Observacin: AT A es denida positiva A tiene columnas l.i = A = QR. Por lo tanto,
o
AT A = RT QT QR = RT R
Es decir, tiene una factorizacin de Cholesky con ra
o
ces. Adems AT A representa la matriz del producto
a
punto en la base formada por las columnas de A y el e.v. Im(A).
12.2.2.
Matrices de proyeccin
o
w1 , . . . , w k
Rn . Se tiene que:
base
Para w W , w = x1 w1 + . . . + xk wk = Cx
Donde C = [w1 | . . . |wk ] y x = (x1 , . . . , xk )T . Para b Rn se debe cumplir que:
b w = b CxW
Debemos buscar el x, pues este nos entrega la informacin de la combinacin lineal para determinar
o
o
w. Por lo tanto, se debe cumplir que:
T
wi (b Cx) = wi (b Cx) = 0
Las matrices se usan para aglomerar informacin simultneamente, como sistemas de ecuaciones, por
o
a
ejemplo. Por lo tanto, esto se puede resumir en:
T
w1
.
C T (b Cx) = 0, donde C T = .
.
T
wk
Lo que, reescrito, signica que C T b = C T Cx. Donde C T b es un vector calculable y C T C es una matriz
tambin calculable con la informacin entregada. Por lo tanto, es fcil resolver x por los mtodos ya
e
o
a
e
conocidos.
61
Observacin: Este sistema tiene solucin unica, ya que C T C representa al producto punto interno
o
o
de W y es denida positiva, por lo tanto invertible.
Es decir,
x = (C T C)1 Cb
Como w = Pw (b) = Cx, entonces Pw (b) = C(C T C)1 Cb. Hemos encontrado la matriz de la proyeccin.
o
Ojo: C T C es por s invertible, pero no quiere decir que C T y C lo sean. Recordar que es una implicancia
Rn y Q la matriz de
dim(W ) + dim(W ) = n
Entonces, se puede elegir calcular la matriz de proyeccin que corresponda al s.e.v. de menor dimensin,
o
o
T C)1 C. Luego de haber calculado,
pues se simplican drsticamente los clculos efectuados sobre C(C
a
a
basta recordar que:
P +Q=I
62
12.2.3.
M
nimos cuadrados
Denicin: Sea Amn , entonces todo vector x0 que es solucin del sistema Ax = PW (b) es una
o
o
solucin por m
o
nimos cuadrados del sistema Ax = b. Si b Im(A), entonces las solucin por m
o
nimos
cuadrados coinciden con las soluciones del sistema. Es decir,
m Ax b
n
xRn
= Ax0 b
Razonamientos: La distancia m
nima de Ax a b cuando no tiene solucin esta dada por w = Ax b,
o
= Ker(AT ). Luego, como w Ker(AT ), se tiene que:
que pertenece a Im(A)
AT w = 0 AT (Ax b) = 0
AT Ax = AT b
Calcular m
nimos cuadrados:
1. Consideramos el sistema Ax = b. Tiene soluciones?
S Solucionamos este sistema. Esa es la solucin
:
o
No: Continue.
2. Se multiplica por la izquierda AT . Entonces se tiene AT Ax = AT b. Tiene columnas l.i.?
S Entonces AT A es positiva denida, ya que representa al producto punto con la base da:
da por las columnas de A, y por lo tanto invertible. Luego, tiene solucin unica el sistema. Por
o
T A)1 AT b.
lo tanto, x = (A
No: Las soluciones son innitas. Simplemente se resuelve el sistema. Todos los datos son conocidos.
Casos concretos / Problemas tipo:
nimos de formas cuadrticas: Una expresin de la forma:
a
o
1. Buscar m
m (x + y + 0 )2 + (x y + 1 )2 + (x + y + 2 )2
n
x,yR
O similares, se pueden calcular de esta forma. Esta expresin se corresponde con la norma al
o
cuadrado de un vector u. En particular, con:
x + y + 0
1
1
0
u = x y + 1 = x 1 + y 1 + 1
x + y + 2
1
1
2
1 1
0
x
u = 1 1
+ 1
y
1 1
2
63
Osea, buscamos:
m u
n
= m n Av b
n
x,yR
vR
1
.
x = x0 + [v1 | . . . |vk ] .
.
k
Por lo tanto, la distancia del punto al hiperplano es la m
nima que se pueda dar, ajustando los
i para que se cumpla esto. Es decir, buscamos tambin aquel punto del hiperplano con aquel
e
que la distancia al punto sea m
nima.
Sabemos que este punto es la proyeccin ortogonal (se puede ver grcamente), y buscamos
o
a
por lo tanto:
2
1
.
m x0 + [v1 | . . . |vk ] . c
n
.
i R
k
1
.
= m [v1 | . . . |vk ] . c + x0
n
.
i R
b
k
A
x
El problema se reduce a:
m Ax b
n
xRn
Esto es algo que ya sabemos hacer. Una vez obtenido el x, que tiene los coecientes de nuestra
combinacin lineal, simplemente calculamos el valor de la norma, y tendremos la distancia.
o
Respecto a hiperplanos: Para un hiperplano de ecuacin H : nx = 0 se tiene la ecuacin cartesiana
o
o
aproximada n1 x1 + . . . + nm xm = 0. Luego, se tiene que H = n , ya que este representa al vector
normal al plano.
12.3.
64
Observacin: Entonces, para cada valor propio, podemos tomar una base y, mediante el proceso de
o
Gram-Schmidt, obtener una base normal para cada una. Por el teorema anterior, juntar todos los
vectores de todas las bases obtenidas generar en efecto una base ortonormal.
a
Teorema: Sea A Mnn (R) y tal que AT = A, entonces A es diagonalizable.
Entonces, para una matriz simtrica, se puede hacer la factorizacin A = P DP 1 . Considerando la
e
o
base ortonormal para esta factorizacin, se tiene que:
o
P = [v1 | . . . |vn ]
con v1
=1
65