Beruflich Dokumente
Kultur Dokumente
Resumen
Concluyamos de manera estetica el curso MAT-022. El calculo de antiderivadas, la incom-
prension del teorema fundamental del calculo, la falta de rigurosidad a la hora de definir las
series de funciones, la enorme cantidad de formulas aprendidas para calcular propiedades en las
distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos
que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda-
mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como
muchas veces prima la ley del mnimo esfuerzo, simplemente no se ensenan.
Cerremos el captulo obscuro de MAT-022 y veamos la luz al final del tunel.
1. Algebra de Matrices
La experiencia ha dicho que no necesariamente en todos los colegios se ensenan ciertos topicos
elementales y basicos para el inicio de las matematicas serias (de hecho, el autor no vio muchos de
los temas de los cuales ha escrito en su ensenanza media, como es el caso del algebra de matrices);
por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como
dijo cierto filosofo: hasta el hombre mas sabio, al tomar el libro que menos represente a sus ojos,
aprendera algo; por esto recomendamos a las personas que conocen y dominan estos topicos el dar
al menos una lectura rapida al siguiente apartado.
1.1. Matrices
Observacion: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.)
Definicion 1.1 Diremos que A es una matriz de m n con coeficientes en K si es una funcion
A : {1, . . . , m} {1, . . . , n} K
(i, j) 7 A(i, j) = aij
Se deduce de esto que los elementos de la matriz A, en general, se denotaran con la minuscula de la
matriz con el subndice respectivo al lugar que ocupa.
Observacion: La definicion anterior induce inmediatamente una notacion muy practica para una
matriz A de elementos aij , a saber A = (aij ).
Definicion 1.2 Diremos que la representacion de una matriz de m n con coeficientes en K es un
arreglo rectangular de valores de K, dispuestos en m filas y n columnas.
Definicion 1.3 Diremos que la matriz A = (aij ) es igual a la matriz B = (bij ) si y solo si poseen el
mismo orden (por ejemplo, m n) y cumplen la relacion aij = bij ((i, j) {1, . . . , m} {1, . . . , n}).
1
Ejemplos:
2. Supongamos la matriz B = (max{i, j}), donde (i, j) {1, . . . , n} {1, . . . , n}. Luego su repre-
sentacion rectangular esta dada por:
1 2 3 4 ... n
2 2 3 4 ... n
3 3 3 4 ... n
B = 4 4 4 4 ... n
.. .. .. .. . . ..
. . . . . .
n n n n ... n
3. La matriz 0mn = (0) es conocida como la matriz nula. Su representacion rectangular esta dada
por:
0 0 0 n veces 0
0 0 0 ... 0
0mn = .. .. ..
. . . . ..
m veces
0 0 0 ... 0
Definicion 1.4 Diremos que una matriz de m n es una matriz cuadrada si y solo si m = n. En
este caso simplemente se dira que la matriz es cuadrada de orden n (no de n n).
Definicion 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es el
conjunto de los elementos {a11 , . . . , ann }. Diremos, ademas, que la traza de la matriz es la suma de
los elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que
n
X
trA = aii
i=1
Definicion 1.6 El conjunto de todas las matrices de orden m n con coeficientes en K se de-
notara por Mmn (K). En el caso de matrices cuadradas de orden n, la notacion del conjunto es
Mn (K).
Ejemplo Importante: Si A = (aij ) es una matriz cuadrada que cumple que aij = 0 cuando i > j
se conocen como matrices triangulares superiores. Por analoga se definen las matrices triangulares
inferiores (aij = 0 cuando i < j).
2
1.2. Multiplicacion por un Escalar
La multiplicacion entre matrices y escalares es una operacion que surge en forma natural del
estudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como definicion.
Ejemplos:
2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los numeros
complejos (en particular para los numeros reales):
3. Si consideramos la matriz
1 2 3 n
2 3 4 n+1
B= Mmn (R)
.. .. .. .. ..
. . . . .
m m + 1 m + 2 m + n
En otras palabras la adicion esta definida para matrices del mismo orden y corresponde a la suma de
las dos matrices componente a componente.
3
Ejemplos:
1. Si A Mmn (R), entonces A + 0mn = A.
2. Si A Mmn (R), entonces existe una unica matriz A Mmn (R) tal que A + (A) = 0mn .
Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como A =
1 A.
3. La suma de numeros complejos (en particular reales) puede entenderse como un ejemplo muy
reducido de suma de matrices, pues todo numero complejo puede entenderse como una matriz
de 1 1, es decir, podemos identificar el conjunto M1 (C) con C; asimismo podemos en general
asumir que M1 (K) es lo mismoque K. Este concepto de lo mismose conoce con el nombre de
isomorfismo y sera visto de manera formal como un caso especial de transformaciones lineales.
Es muy importante hacer notar el hecho de los ordenes que tienen que tener las matrices para poder
ser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicar
entre s. En forma analoga al caso real o complejo se define la potenciacion entera de matrices, es
decir
n veces
z }| {
n
A = A A ... A nN A Mn (K)
Ciertas propiedades de esta operacion seran vistas mas adelante, por lo pronto es una simple curiosi-
dad.
Ejemplos:
1. Definiremos la matriz identidad de orden n de la siguiente manera:
1 0 0 0
0 1
0 0
In = 0 0
1 0 Mn (K)
.. .. .. . . ..
. . . . .
0 0 0 1
4
Luego se tiene que
1 0 0
B C = C B = I3 = 0 1 0
0 0 1
Se dice entonces que C es la matriz inversa de B y viceversa.
3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo la
matriz de orden 2
1 0
M2 (R)
0 0
No tiene inversa, pues si la tuviese se tendra que
1 0 a b a b
=
0 0 c d 0 0
Lo cual nunca es posible igualar a I2 .
4. La multiplicacion de matrices no es necesariamente una operacion conmutativa, pues obvia-
mente si multiplicamos una matriz D Mmn (K) por una E Mnm (K) (m 6= n), entonces
D E Mm (K), mientras que E D Mn (K). Otro caso, algo mas patologico, es que si con-
sideramos la matriz D anterior y una matriz F Mn (K), entonces es posible tener el producto
D F , pero no el producto F D.
5. Algo interesante es que ni siquiera la multiplicacion entre matrices cuadradas respeta la con-
mutatividad, a saber
1 1 1 4 3 7 1 4 1 1 9 5
= ; =
2 1 2 3 4 11 2 3 2 1 8 5
Ejercicio: Sean A y A0 dos matrices en M2 (R) tales que los elementos de su diagonal principal
son diferentes. Determine condiciones para que A A0 = A0 A. Ademas, verifique que el conjunto
a b
CM = A M2 (R) : A = , a, b R
b a
Esta formado solo por matrices que conmutan.
Partamos por considerar las dos matrices A y A0 , es decir, darle valores arbitrarios a sus elementos:
0 0
a b 0 a b
A= ; A =
c d c0 d0
Ahora bien, claramente se tiene que sus productos son
0
aa + bc0 ab0 + bd0
0
aa + b0 c a0 b + b0 d
0 0
AA = ; A A=
a0 c + c0 d b0 c + dd0 ac0 + cd0 bc0 + dd0
Luego, para tener conmutatividad, es necesario que A A0 = A0 A, es decir,
0
aa + bc0 = aa0 + b0 c
bc0 = b0 c
0
ab + bd0 = a0 b + b0 d
0 0 0 0 b (a d) = b(a0 d0 )
0
a c + c d = ac + cd
c0 (a d) = c(a0 d0 )
0
b c + dd0 = bc0 + dd0
5
Dada la hipotesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemos
que a d 6= 0 y que a0 d0 6= 0, por lo tanto las ultimas dos condiciones se reducen a que bc0 = b0 c,
entonces solo basta que se cumpla la primera condicion.
Para el producto definido en el conjunto CM podemos usar los calculos hechos anteriormente, es
decir, si consideramos
0
u v 0
u v 0
z= ; z = CM
v u v0 u0
Definicion 1.9 (Matrices Elementales Fila) Diremos que A Mn (R) es una matriz elemental
fila si y solo si A posee una de las siguientes formas:
1. A es casi identica a la matriz In , salvo por dos filas i1 , i2 que han sido permutadas. Esta matriz
se suele denotar por A = Fi1 i2 .
2. A es casi identica a la matriz In , salvo por una fila i que ha sido multiplicada por un cierto
escalar no nulo k C \ {0}. Esta matriz se suele denotar por A = Fi (k).
3. A es casi identica a la matriz In , salvo por dos filas i1 , i2 la segunda de las cuales ha sido
multiplicada por un cierto escalar no nulo k C \ {0} y ha sido sumada a la fila i1 . Esta matriz
se suele denotar por A = Fi1 i2 (k).
Observacion: Desde ahora y a menos que se diga lo contrario, K sera reemplazado por R o C para
efectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayora de las veces
de C por el hecho que este contiene a R.
Ejemplos:
1. Claramente In = Fi (1), para todo i = 1, . . . , n y para todo n N.
2. Veamos un ejemplo concreto del primer tipo de matriz elemental fila. En el caso de M4 (C)
tenemos:
1 0 0 0
0 0 1 0
F23 =
0 1 0 0
0 0 0 1
6
3. Ahora veamos un ejemplo del segundo tipo de matriz elemental fila igualmente en el caso de
M4 (C):
1 0 0 0
0 1 0 0
F3 (2) =
0 0 2 0
0 0 0 1
4. Finalmente, en el mismo conjunto M4 (C) veamos como se ve una matriz elemental fila del caso
3:
1 0 0 3
0 1 0 0
F14 (3) =
0 0 1 0
0 0 0 1
Bueno, ahora la pregunta natural sera cual es la gracia de estas matrices? La respuesta es muy
simple, pero no la dare ahora. Alargando un poco la agona veamos el siguiente
Teorema 1.1 Todas las matrices elementales son invertibles, mas aun:
1. Fi1 i2 Fi1 i2 = In .
2. Fi (k)Fi ( k1 ) = In .
Demostracion 1.1 La demostracion de este teorema quedara mas que clara cuando veamos que es
lo que representan estas matrices elementales fila.
Observacion: Una construccion identica a la de las matrices elementales fila se puede realizar para
matrices elementales columna. Estas se suelen representar por Ci1 i2 , Ci (k) y por Ci1 i2 (k) respectiva-
mente.
Una vez definidos estos objetos un poco abstractos, tratemos de interpretar que significan. Esta
pregunta quedara mas que clara despues de la siguiente definicion y el posterior teorema.
Definicion 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operacion el-
emental fila sobre la matriz A Mmn (C) si:
1. Se han permutado dos filas. Si las filas permutadas han sido i1 y la fila i2 , entonces dicha
operacion se denota por Fei1 i2 .
2. Una fila se ha multiplicado por un escalar no nulo. Si la fila modificada ha sido la i-esima y el
escalar por el cual fue multiplicada es k, entonces dicha operacion se denota por Fei (k).
Si se tuvo que hacer una cierta operacion elemental fila Fe para llegar desde A hasta A0 , denotaremos
este hecho por
Fe
A A0
Y diremos que las matrices A y A0 son equivalentes por fila.
7
Claramente esta definicion debe venir seguida del siguiente
Teorema 1.2 Las operaciones elementales fila se relacionan con las matrices elementales fila del
siguiente modo:
Fe
A A0 A0 = F A
Fe
Donde F es la matriz elemental fila respectiva a la operacion Fe, es decir, In F .
Definicion 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B Mmn (C) son equiv-
f
alentes por fila (denotado por A B) si se puede obtener B a partir de A con un numero finito de
operaciones elementales fila.
Observacion: El proceso de aplicar operaciones elementales fila (o columna) para obtener matrices
equivalentes por fila (o columna) es llamada Reduccion Gaussiana, en honor al llamado Prncipe de
las Matematicas, el insigne Karl Friederich Gauss.
Ejemplos:
1 F
f2 F
f k F
f
A B
F 1 F 1 F 1
g g g
k 2 1
B A
8
2. Veamos un ejemplo concreto de como se aplica la reduccion Gaussiana
1 2 1 1 2 1 1 2 1
F
g 31 (1) F
g 21 (3)
3 1 2 3 1 2 0 7 1
1 3 1 0 1 0 0 1 0
1 2 1 1 2 1 1 2 1
F
g 23 (7) F
f2 (1) F
g 23
0 0 1 0 0 1 0 1 0
0 1 0 0 1 0 0 0 1
1 0 1 1 0 0 1 0 0
F
g 12 (2) F
g 13 (1) F
f1 (1)
0 1 0 0 1 0 0 1 0
0 0 1 0 0 1 0 0 1
Definicion 1.12 (Matriz Inversa) Dada una matriz A Mn (C), entonces decimos que es invert-
ible si existe A1 Mn (C) tal que
AA1 = A1 A = In
A la matriz A1 se le llama inversa de A.
Definicion 1.13 (Grupo Lineal) Decimos que el subconjunto de Mn (C) de todas las matrices
invertibles se conoce como el grupo lineal GLn (C) (multiplicativo). Es bastante directo probar las
propiedades que definen a este conjunto como grupo, es decir:
1. Es cerrado, es decir, dadas A, B GLn (C), entonces AB, BA GLn (C).
2. Es asociativo, es decir, dadas A, B, C GLn (C), entonces A(BC) = (AB)C (propiedad hereda-
da de la multiplicacion de matrices).
4. Tiene inversos, es decir, para cualquier A GLn (C) se cumple que A1 GLn (C). Este hecho
proviene directamente de la definicion.
9
Ejemplos:
es la matriz inversa de
1 2 1
3 1 2
1 3 1
3. Existen elementos del conjunto Mn (C) que no estan en GLn (C), por ejemplo, la matriz 0n .
4. En el caso de Mn (C), se tiene una formula explcita para el calculo de la matriz inversa:
1
a b 1 d b
=
c d ad bc c a
Definicion 1.14 (Traza) La traza de una matriz A Mn (C) es simplemente la suma de los ele-
mentos de su diagonal principal, es decir:
a11 a12 a1n
n
a21 a22 a2n X
Si A = .. . = tr(A) = aii
.. ..
. . . .. i=1
an1 an2 ann
10
Ejemplos:
1. Debiese ser algo mas o menos evidente que tr(In ) = n.
2. Si
7 1 5
A = 1 0 1
10 1 7
entonces tr(A) = 14.
3. Es un simple ejercicio de conteo verificar que si denotamos por
P erm(n) = { : es una permutacion de Jn }
entonces #P erm(n) = n!.
4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de un
cierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebastian en una fila,
cuantas maneras posibles hay de hacerlo? Simplemente 3! = 6.
5. La permutacion 1 : {1, 2, 3, 4} {1, 2, 3, 4} dada por 1 (1) = 2, 1 (2) = 4, 1 (3) = 1 y
1 (4) = 3, es una permutacion impar, mientras que 2 : {1, 2, 3, 4} {1, 2, 3, 4} dada por
2 (1) = 4, 2 (2) = 2, 2 (3) = 1 y 2 (4) = 3 es una permutacion impar.
Definicion 1.16 (Determinante) El determinante de una matriz A Mn (C) es un valor com-
plejo, denotado por det(A), definido como
X
det(A) = (1)a1(1) a2(2) . . . an(n)
P erm(n)
donde el signo positivo o negativo se considera segun la permutacion sea par o impar respectiva-
mente.
Ejemplos:
1. Cuando n = 1, entonces hay solo una posible permutacion, entonces si A = (a11 ), entonces
det(A) = a11 .
2. En el caso n = 2 debiesemos llegar a la definicion de determinante dada en el apartado anterior.
La suposicion es correcta, pues
a11 a12
A= = det(A) = a11 a22 a12 a21
a21 a22
3. En el caso n = 3 se tiene que si
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
= det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extension a la
idea del calculo del determinante de 22 (multiplicar los terminos en las diagonales principales,
sumarlos y despues restar los productos en las antidiagonales), este proceso se conoce como
Regla de Sarrus y no es valida en el caso general de determinantes.
11
Observacion: La funcion
det : GLn (C) C
A 7 det(A)
es un caso bastante interesante de una clase particular de homomorfismo de grupos, conocidos como
valuaciones.
1. det(A) = det(AT ).
3. Si la matriz A resulta a partir de la matriz B al intercambiar dos filas o dos columnas entre
s de B, entonces det(A) = det(B).
5. Si la matriz A resulta a partir de la matriz B al multiplicar una fila o una columna por un
escalar c, entonces det(A) = c det(B).
6. Si B = (bij ) se obtiene a partir de A = (aij ) por medio de sumar a cada elemento de la r-esima
fila c veces el elemento correspondiente a la s-esima fila (con r 6= s), entonces det(A) = det(B).
Ejemplos:
1. Claramente det(In ) = 1.
3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas-
tante similitud usando la resuccion gaussiana. Verifique que
1 2 1
det 3 1 2 = 1
1 3 1
12
4. Si se tiene una matriz diagonal
a11 0 0 0
0 a22 0 0
D=
0 0 a33 0
.. .. .. .. ..
. . . . .
0 0 0 ann
se tiene que
n
Y
det(D) = aii
i=1
Basta restar a cada fila (excepto a la primera) la primera fila, teniendo el siguiente determinante
(equivalente al primero):
n 1 1 1
1
0 1 0 0
0
0 0 2 0
0
=
0 0 0 3
0
.. .. .. ..
.. ..
. . . . . .
0 0 0 0 n 1
= n 1 2 3 . . . (n 1) = n!
13
2. Espacios Vectoriales
Para comenzar el estudio como tal del algebra lineal, definiremos un concepto trascendental para
las Matematicas
Definicion 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cuadruple (V, +, K, )
donde V es un conjunto (no vaco) de elementos llamados vectores, K es un cuerpo de escalares (que,
en general, seran Q, R o C), + es una operacion (llamada ley interna)
+: V V V
(, ) 7 +(, ) = +
: KV V
(c, ) 7 (c, ) = c
1. + y son cerradas en V : + V, y c x V , V, c K.
2. + es conmutativa: + = + , , V .
3. + es asociativa: + ( + ) = ( + ) + , , , V .
8. distribuye sobre +: c ( + ) = c + c , c K; , V .
Observacion: En general la operacion + sera llamada suma y sera conocido como el producto
por escalar; en general este sera denotado por yuxtaposicion, es decir: si V el producto de por
un escalar c K sera c en lugar de c .
Importante: Como ya fuese visto en la definicion, en V existe un vector denotado por 0 tal que
es el neutro aditivo. Este vector es conocido como vector nulo y sera especificada la diferencia entre
el y el elemento neutro aditivo de K solo en caso de ser necesario, en otro caso se debera deducir a
partir del contexto.
Mas Importante Aun: Si consideramos V = {0} se habla del Espacio Vectorial Nulo. Es claro
que V es un K-EV, sin importar el cuerpo que se considere.
14
Ejemplos:
3. Definamos el conjunto
(
)
X
`p = {ai }
i=1 sucesion , ai C, i N : |ai | <
i=1
Con 1 p < y con la suma y producto por escalar usual de sucesiones. Este conjunto es un
CEV (y por tanto, un REV) como puede verificarse a partir de algunas de las propiedades
vistas en la Subseccion ??. Si no se ve claramente este hecho, pueden considerarse las series
con coeficientes en R.
4. Consideremos el conjunto
Kn [x] = {a0 + a1 x + . . . + an xn : a0 , a1 , . . . , an K}
Esto es, el conjunto de todos los polinomios con coeficientes en K de grado menor o igual a n.
El conjunto Kn [x] con la suma y el producto por escalar usual de polinomios es un KEV.
+ : R+ R+ R+
(x, y) 7 xy
: R R+ R+
(, x) 7 x
Se deja como ejercicio verificar las propiedades anteriores para probar que R+ con las leyes
anteriores es un REV.
6. El conjunto Mmn (K) tiene una estructura natural como KEV con la suma y el producto
por escalar usual de matrices.
15
Definicion 2.2 Diremos que W V es un subespacio vectorial de V si y solo si W es un espacio
vectorial con las operaciones definidas en V restringidas a el.
Teorema 2.1 Se dice que W es un subespacio vectorial de V si y solo si W V y todos los elementos
de W cumplen las siguientes propiedades algebraicas:
Ejemplos:
1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2
subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formado
solo por el cero y el espacio completo V . Al considerar los subespacios propios solo se tiene
seguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene solo al espacio nulo como
subespacio propio es R como REV.
a) El espacio nulo.
b) Las rectas que pasan por el origen.
c) Los planos que pasan por el origen.
d ) Todo R3 .
Una demostracion de este interesante hecho se puede obtener como un corolario (colorn coro-
lario) a partir del concepto estudiado en la Subseccion 2.5.
3. Si consideramos el conjunto Rn [x] como REV, entonces todos los subespacios vectoriales de
el quedan determinados por Rm [x], con 0 m n, m N.
4. El conjunto de funciones de clase C n (R) forma un subespacio vectorial del REV de las fun-
ciones de R en R.
16
2.2. Combinaciones Lineales
Consideremos un subconjunto finito de vectores de V , un K-EV; a saber:
= {1 , 2 , . . . , k } V
con k N. Junto a este hecho, podemos considerar un subconjunto finito de escalares de K (con
identica cardinalidad que el subconjunto de vectores), a saber:
{c1 , c2 , . . . , ck } K
Definicion 2.3 Un vector V se dice combinacion lineal de los elementos de con coeficientes
c1 , c2 , . . . , ck si se puede escribir de la siguiente forma:
= c1 1 + c2 2 + . . . ck k
Ejemplos:
1. Sean p(x), q(x), r(x) R4 [x] dados por p(x) = x4 + x2 , q(x) = 1 2x3 + 3x2 y r(x) = 3 + 2x,
entonces
2p(x) + q(x) r(x) = 2x4 2x3 + 5x2 2x 2 R4 [x]
2. Si consideramos dos funciones en el espacio C r (R), entonces cualquier combinacion lineal entre
ellas sigue siendo una funcion en C r (R), lo cual se desprende de inmediato de las propiedades
de lmite.
Definicion 2.4 Diremos que hJ i es el conjunto generado por J si y solo si es el conjunto de todas
las combinaciones lineales de los elementos de J con coeficientes en K.
Teorema 2.2 Dadas las mismas hipotesis y notaciones anteriores (V un K-EV, J un subconjunto
de V , etc.) se tiene que hJ i V .
17
2. Sean j1 , j2 hJ i, es decir:
j1 = a1 1 + a2 2 + . . . + ak k
j2 = b1 1 + b2 2 + . . . + bk k
Tenemos que
j1 + j2 = (a1 1 + a2 2 + . . . + ak k ) + (b1 1 + b2 2 + . . . + bk k ) =
cj = c(a1 1 + a2 2 + . . . + ak k ) =
Definicion 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si
hJ i = V
Ejemplos:
1. En R3 , el espacio generado por un solo vector es una recta que pasa por el origen.
2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0V es
simplemente {0V }.
3. h1, x, x2 , x3 , x4 i = R4 [x].
4. h1, sin(x), cos(x), sin(2x), cos(2x), . . .i es el espacio vectorial de todas las funciones periodicas
de perodo 2, seccionalmente continuas (es decir, que en un intervalo de perodo 2 tienen
un numero finito de discontinuidades). El conjunto {1, sin(x), cos(x), sin(2x), cos(2x), . . .} se
conoce como base de Fourier y se veran algunas propiedades mas en MAT-023.
Definicion 2.6 Se dice que es un conjunto linealmente dependiente si y solo si existen escalares
c1 , c2 , . . . ck no todos nulos tales que
c1 1 + c2 2 + . . . , ck k = 0
Tambien diremos que J es linealmente dependiente si existe una combinacion lineal no trivial para
0V.
18
Definicion 2.7 Se dice que es un conjunto linealmente independiente si no es linealmente de-
pendiente. En otras palabras si la unica combinacion lineal para 0 V es la trivial. En forma mas
explcita aun si:
c1 1 + c2 2 + . . . + ck k = 0 c1 = c2 = . . . = ck = 0
Con estas dos definciones en el bolsillo, podemos verificar el siguiente
Teorema 2.3 Un conjunto de vectores J 6= es linealmente independiente si y solo si cada vector
de hJ i se puede escribir en forma unica como combinacion lineal de los elementos de J.
Demostracion 2.3 Dado que el Teorema esta enunciado en forma de equivalencia, debemos probar
una doble implicancia:
J es linealmente independiente.
Razonemos por absurdo. Consideremos hJ i tal que
= a1 1 + . . . + ak k = b1 1 + . . . + bk k
Y que, al menos, a` 6= b` (es decir, consideramos un vector de hJ i tal que posee dos repre-
sentaciones diferentes como combinacion lineal de los elementos de J). Luego, se tiene que
0 = (a1 1 + . . . + ak k ) (b1 1 + . . . + bk k ) =
= (a1 b1 )1 + . . . + (ak bk )k hJ i
Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coeficientes
son identicamente nulos y, por lo tanto, a` = b` , obteniendo la contradiccion esperada.
Todo elemento de hJ i posee una unica representacion como combinacion lineal de los elementos
de J.
Nuevamente podemos razonar por absurdo. Supongamos c1 , . . . , ck no todos nulos tales que
0 = c1 1 + . . . + ck k
Pero dado que los elementos de hJ i pueden escribirse en forma unica como combinacion lineal
de los elementos de J, debe ocurrir que
c1 = . . . = ck = 0
Que es, precisamente, la contradiccion que esperabamos encontrar.
A partir del Teorema anterior, podemos deducir el siguiente
Corolario 2.4 Todo conjunto de vectores tal que 0 es linealmente dependiente.
Demostracion 2.4 La demostracion de este Corolario es trivial a partir del Teorema anterior, pues
supongamos 1 , . . . , k tales que ninguno de ellos corresponde al vector nulo, luego si:
= 1 + . . . + k
podemos considerar la combinacion lineal
+ 1 + . . . + k = 0
que es diferente de la representacion trivial del vector nulo, por lo tanto el conjunto no es lineal-
mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si = {0} la
dependencia lineal es inmediata, pues si c1 , c2 K tales que c1 6= c2 se tiene que
0 = c1 0 = c2 0
19
Ejemplos:
1. El conjunto de vectores de R3 :
Es linealmente independiente. Mas aun, como se vera mas adelante, en los ejemplos que traba-
jaremos en este curso existe una cota para la cantidad de vectores linealmente independientes
que pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamados
de dimension infinita). En este caso, la cota es de 3 vectores.
4. Geometricamente, por ejemplo, en R3 se puede pensar la independencia lineal entre dos vectores
como verificar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasa
por el origen con direccion dada por uno de los vectores) contiene al otro vector. Asimismo
podemos definir la independencia lineal entre subespacios vectoriales, por ejemplo, un vector
es linealmente independiente de un plano que pasa por el origen si y solo si el plano contiene
al vector, es decir, que el vector se pueda escribir como combinacion lineal de los vectores que
generan al plano.
2.5. Bases
Para el estudio apropiado del Algebra Lineal, el concepto de base no es menos que trascendental,
es por esto, que la definicion siguiente es de vital importancia en este captulo:
Pero las bases no se quedan solo en definiciones, de hecho queremos demostrar un teorema im-
portante, pero para ello necesitamos de un
Teorema 2.6 Si una base de V tiene cardinalidad finita n, entonces toda otra base de V tiene
exactamente la misma cardinalidad.
20
Demostracion 2.6 Supongamos B1 y B2 bases de V , de las cuales sabemos solo que Card(B1 ) = n.
Usando el Lema anterior, se deduce que no puede ocurrir que Card(B2 ) > n (pues requerimos que
B2 sea linealmente independiente), es decir, basta verificar que no puede ocurrir que Card(B2 ) < n;
esto se debe a que, de ocurrir que Card(B2 ) < n, B2 no genera a V .
Usemos reductio ad absurdum. Supongamos que B2 es base de V , considerando que Card(B2 ) =
r < n, luego ocurre que B1 es un conjunto linealmente independiente con cardinalidad mayor que la
de la base de V , que se contradice con el Lema anterior.
Corolario 2.7 Si B1 y B2 son bases de un K-EV, entonces existe una funcion biyectiva : B1 B2
Demostracion 2.7 Esta demostracion es muy trivial, pues basta con fijar un orden de los elementos
de ambas bases, luego podemos elegir la funcion que asocia biunvocamente los elementos segun el
lugar que ocupan en el orden preestablecido. Verificar que es biyectiva es, ahora una mera cuestion
de calculo.
Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi-
bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio de
la inclusion de vectores linealmente independientes a la base del subespacio. Veremos la validez de
este hecho en el caso de dimension finita
Teorema 2.8 (Completacion de Base) Supongamos, como es usual, que V es un K-EV tal que
dimK V = n N (es decir, de dimension finita) y W tal que W < V , dimK W = m < n. Si
BW = {w1 , . . . , wm } es base del subespacio W , existen vectores linealmente independientes en V (y
que no estan en W ) um+1 , . . . , un tales que B = BW {um+1 , . . . , un } = {w1 , . . . , wm , um+1 , . . . , un }
es base de V .
Demostracion 2.8 Dado que W < V , entonces existe al menos un vector um+1 V tal que
BW {um+1 } es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el proceso
acaba en el primer paso, si no fuese as, entonces es posible encontrar otro vector um+2 tal que
BW {um+1 , um+2 } es linealmente independiente y as sucesivamente. Por el Lema 2.5 este proceso
termina cuando se alcanzan n vectores linealmente independientes.
21
luego, se deduce que
n
X
0= (i 0i )i
i=1
Ejemplos:
2. Una base para Kn [x] esta dada por el conjunto linealmente independiente de monomios
3. El espacio vectorial de matrices M2 (R) (visto como REV) tiene como base al siguiente
conjunto:
1 1 1 0 1 0 0 0
; ; ;
0 0 0 1 1 0 1 1
4. Toda base de R vista como REV tiene solo 1 elemento. Por comodidad se suele utilizar el
conjunto {1}.
5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencia
lineal.
6. Determine cual es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorial
Mmn (R) visto como REV. Sugerencia: Pruebe imaginando a Mmn (R) como otra forma de
escribir Rmn .
2.6. Dimension
Ya con la maravillosa introduccion del concepto de base y el teorema que nos asegura que todas
ellas poseen una misma cardinalidad, parece natural dar un nombre a este numero, por esto la
siguiente definicion:
Definicion 2.9 Diremos que un K-EV posee dimension n N (finita) si la cardinalidad de una
base cualquiera B de V es exactamente n. Si B tuviese cardinalidad infinita, diremos que K-EV es
de dimension infinita.
Observacion: En lo que sigue, supondremos que los espacios vectoriales poseen dimension finita,
excepto cuando la dimension no influya en el ejercicio o en el concepto en s.
22
Observacion: Si la dimension de V , un K-EV, es n N, entonces quedara denotada por n =
dimK V .
Teorema 2.10 Si W V , entonces dimK W dimK V . Mas aun, la igualdad solo ocurre cuando
W =V.
Demostracion 2.10 Es evidente que si W = V , necesariamente su dimension es n. Si W < V ,
existe al menos un vector V tal que no esta en W , por lo tanto, si BW es base de W , hBW i
no genera a V . Claramente si no es generado por BW , tampoco lo son los vectores c (donde
c K). Por lo tanto, la dimension de W es a lo mas n 1, pues el conjunto de los vectores c es
un subespacio vectorial de dimension 1 de V . Se dice que es a lo mas n 1 pues podra ocurrir que
existiese otro vector V que no este en W y que fuese linealmente independiente del vector
anterior y as sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorial
de dimension mayor que 1 y, por tanto, W tendra dimension menor que n 1.
23
Ejemplos:
1. R visto como QEV tiene dimension infinita. Verifique esta afirmacion tomando, por ejemplo,
{ p : p primo }. Cual es la cardinalidad de la base de este espacio vectorial?
2. El espacio Kn [x] tiene dimension n + 1, pues basta tomar la base canonica presentado en los
ejemplos de la seccion anterior, esto es, tomando la base formada por los monomios
4. Cn tiene dimension real (es decir, como REV) 2n, pero dimension compleja n. Claramente
esto se sigue de la construccion de la base de Cn . Trate de obtener su propia base canonica
(que de seguro coincidira con la base canonica usual) en ambos casos y deduzca el enunciado.
5. Si, por ejemplo tomamos el REV Rn [x] y consideramos el subespacio vectorial de este Rm [x]
(evidentemente m n), se tiene de inmediato la desigualdad de las dimensiones.
Definicion 2.11 Diremos que E F es el espacio interseccion de los subespacios E y F si y solo si:
E F = {| E F }
Corolario 2.15 Con las convenciones anteriores se tiene que dimK E F dimK V .
24
2.7.2. Espacio Suma
As como la interseccion de subespacios presenta propiedades interesantes, lo propio ocurre con
la suma de subespacios.
Definicion 2.12 Diremos que E + F es el espacio suma si y solo si:
E + F = {u + v|u E v F }
Teorema 2.16 Con las convenciones anteriores se tiene que E + F V .
Demostracion 2.16 Consideremos u1 + v1 E + F , donde u1 E y v1 F y, en forma analoga
consideremos u2 + v2 E + F y K. Luego, se sigue de inmediato que, por el hecho que E y F
son espacios vectoriales por s solos, u1 + u2 + v1 + v2 E + F y u1 + v1 E + F .
Corolario 2.17 Con las convenciones anteriores se tiene que dimK (E + F ) dimK V .
Demostracion 2.17 La demostracion se sigue inmediatamente del Teorema 2.10.
Teorema 2.18 Usando las mismas convenciones anteriores se tiene que
dimK (E + F ) = dimK E + dimK F dimK (E F )
Demostracion 2.18 Consideremos BEF = {1 , . . . , m } una base de E F . Dado que E F E
la base BEF se puede completar hasta obtener una base de E, a saber:
BE = {1 , . . . , m , 1 , . . . , n }
Del mismo modo, siguiendo el mismo razonamiento, tenemos que
BF = {1 , . . . , m , 1 , . . . , r }
es una base de F . Con estas bases podemos crear el conjunto B = BE BF , el cual resulta ser base de
E + F . Para verificar esta afirmacion notemos que al considerar una combinacion lineal de elementos
de B tal que sea igual a cero (considerando i , j , k K):
m
X n
X r
X
i i + j j + k k = 0
i=1 j=1 k=1
25
2.7.3. Espacio Suma Directa
Esta particularizacion del espacio suma es de vital importancia en el estudio venidero del algebra
lineal, por lo tanto, pongan especial atencion.
Definicion 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio suma
E + F con la restriccion de que E F = {0}. Denotamos la suma directa de E y F por E F.
Demostracion 2.20 Se deduce este corolario al notar que E F = {0}, por lo tanto, se tiene que
dimK E F = 0. Luego basta utilizar el Teorema 2.18.
Finalmente, un importantsimo
Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = E F . Este espacio
se conoce como el complementario de E respecto de V .
Ejemplos:
n veces
1. Rn = R R R.
3. Mn (R) = Sn (R)+An (R), donde Sn (R) es el espacio vectorial de matrices simetricas (invariantes
bajo transposicion) y An (R) el de las matrices antisimetricas (que tras una transposicion,
cambian de signo). Verifique esta afirmacion.
26
2.7.4. Espacio Cociente
Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se continua
en el estudio de las matematicas, se vera que no es menos que natural. Es una situacion parecida a
medir los angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos en
base 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural).
Antes de comenzar con el Espacio Cociente, veamos una definicion sencilla que, perfectamente pudo
haber sido dada en MAT-021.
Definicion 2.14 Diremos que una relacion < es una relacion de equivalencia si dados x, y, z
Dom<:
1. La relacion es reflexiva:
x<x
2. La relacion es simetrica:
Si x<y = y<x
3. La relacion es transitiva:
Si x<y y y<z = x<z
Ahora bien, dado un conjunto A en el cual se tiene una relacion de equivalencia, se da en forma
natural una particion del conjunto.
Definicion 2.15 Diremos que un conjunto A esta particionado en una coleccion de subconjuntos de
A: = {A1 , . . . , An } si y solo si
n
[ [
Ai = =A donde Ai Aj = si i 6= j
i=1
Si la particion de un conjunto es heredada a partir de una relacion de equivalencia, cada uno de los
subconjuntos que forman son llamados clases de equivalencia. En el caso de Espacios Vectoriales,
la relacion de equivalencia mas simple, con sus respectivas clases, queda dada por
Definicion 2.16 Dados , V diremos que estan en la misma clase de equivalencia respecto del
subespacio E si y solo si:
E
Denotaremos este hecho por [], donde [] denota la clase de equivalencia con como represen-
tante.
Proposicion 2.22 La relacion definida anteriormente es, efectivamente, una relacion de equivalen-
cia.
Demostracion 2.22 La demostracion de esto es trivial, pues solo basta verificar las condiciones
dadas en la Definicion 2.14.
27
La definicion anteriormente dada induce a una notacion muy util para las clases de equivalencia,
a saber:
[] = + E = { + | E}
Esta importante definicion permite definir el Espacio Cociente, usando la notacion antes definida.
Definicion 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V /E es el Espacio
Cociente del espacio V respecto de su subespacio E si y solo si:
V /E = {[]| V }
En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto al
subespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido solo a
las clases de equivalencia respecto de E.
Teorema 2.23 El espacio cociente entre V y E cumple: V /E V , con las operaciones inducidas
por la relac ion de equivalencia, dadas por:
V /E V /E V /E
( + E, + E) 7 ( + ) + E
K V /E V /E
(, + E) 7 () + E
Demostracion 2.23 La misma definicion de la aritmetica de equivalencia demuestra este teorema.
El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacio
y del subespacio.
por lo tanto, ni=1 i i E; pero notemos que este vector debe tambien estar en el complementario
P
de E ya que es combinacion lineal de los elementos de su base, por lo tanto, 1 , . . . , n = 0.
El hecho de que BV /E genera a V /E se desprende inmediatamente, pues si [] = + E V /E,
entonces existen 1 , . . . , k , 1 , . . . , n K tales que:
k
X n
X
= i i + j j
i=1 j=1
28
debido a que V . Luego, usando la aritmetica de equivalencia dada en el Teorema 2.23 se tiene
que
Xn Xn
+E = j j + E = j (j + E)
j=1 j=1
Teorema 2.25 Bajo las convenciones anteriores se tiene que dimK V /E = dimK V dimK E
3. Transformaciones Lineales
Nos interesa estudiar, ademas de conjuntos que posean propiedades especiales, funciones que
conserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espacios
vectoriales tales que cumplan
f ( + ) = f () + f () ; f () = f ()
Definicion 3.1 Diremos que una funcion L : V W (con V y W K-EV) es una transformacion
lineal (o aplicacion lineal) si preserva la estructura de espacio vectorial, es decir, si , V y K:
Definicion 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E y
de llegada a F lo denotaremos por L(E, F ).
Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F ) es un espacio
vectorial con las operaciones
: K L(E, F ) L(E, F )
(, ) 7 ()
Estas operaciones se aplican del siguiente modo: (1 + 2 )() = 1 () + 2 () y ()() = ().
Demostracion 3.1 Con la definicion de las operaciones entre transformaciones lineales esta de-
mostracion es trivial.
29
Lema 3.2 Si B = {1 , . . . , k } es una base de E y L(E, F ) tal que (i ) = 0F (i = 1, . . . , k),
entonces, 0.
() = (1 1 + . . . + k k ) = 1 (1 ) + . . . + k (k ) = 0F
Demostracion 3.3 Necesitamos verificar la existencia, lo cual es evidente pues conocemos su accion
sobre una base, a saber, si E entonces = 1 1 + . . . + k k , entonces () = 1 1 + . . . + k k
donde i son conocidos por la descomposicion de en sus coordenadas (que son unicas por el Teorema
2.9) y i son conocidos por ser la accion sobre la base.
La unicidad se verifica suponiendo la existencia de 0 tal que 0 (i ) = i (i = 1, . . . , k). Luego la
transformacion ( 0 ) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema
3.2 se deduce la tesis de unicidad.
Lema 3.4 Siempre, sin importar la transformacion lineal L(E, F ), se cumple que 0E ker .
Teorema 3.5 El nucleo de una transformacion lineal es un subespacio vectorial del espacio de partida
de esta, es decir, usando las notaciones usuales: ker E.
Demostracion 3.5 Es claro que ker 6= , debido al Lema 3.4. Ahora bien, supongamos , ker
y K, entonces se tiene:
( + ) = () + () = 0F + 0F = 0F
() = () = 0F = 0F
30
Observacion: Al nucleo de una transformacion lineal tambien se le llama el kernel de esta. A la
dimension del nucleo se le conoce como nulidad (Null = dimK ker ).
Teorema 3.6 Una transformacion lineal L(E, F ) es inyectiva (en el sentido de ??) si y solo si
ker = {0E }.
Demostracion 3.6 Dado que el teorema esta enunciado en forma de equivalencia, debemos probar
las dos implicancias:
ker = {0E }.
Supongamos , 0 E tales que () 6= (0 ), por lo tanto, ( 0 ) 6= 0F , es decir, 0
no esta en ker y, por lo tanto, 6= 0 .
es inyectiva.
Supongamos , 0 ker , es decir, si () = (0 ) = 0F entonces = 0 , , 0 ker y,
dado que 0E ker (por el Lema 3.4), se tiene que ker = {0E }.
Teorema 3.7 La imagen de una transformacion lineal es un subespacio vectorial del espacio de
llegada, es decir, usando las notaciones anteriores: Im F .
genera a Im.
Demostracion 3.8 Supongamos Im, luego existe un E tal que () = . Dado que
= 1 1 + . . . + k k en forma unica (por el Teorema 2.9) se tiene lo siguiente:
() = = 1 (1 ) + . . . + k (k )
Es decir, cualquier elemento de Im se escribe como combinacion lineal de los elementos de (B).
Rg + Null = dimK E
31
Demostracion 3.9 Consideremos V un espacio vectorial de dimension n, es decir:
BV = {v1 , . . . , vk , vk+1 , . . . , vn }
es una base de V . Ademas, sin perdida de la generalidad, podemos considerar que
Bker = {v1 , . . . , vk }
es base de ker . Basta probar que
B{(vk+1 ), . . . , (vn )}
es base de Im. Para esto, consideremos una combinacion lineal de dichos vectores igualada a 0F ,
esto es:
k+1 (vk+1 ) + . . . + n (vn ) = 0F
como es transformacion lineal, podemos hacer lo siguiente:
k+1 (vk+1 ) + . . . + n (vn ) = (k+1 vk+1 + . . . + n vn )
Y, por lo tanto, k+1 vk+1 + . . . + n vn ker , pero son vectores linealmente independientes de los
vectores que generan al nucleo de , por lo tanto, necesariamente debe cumplirse que
k+1 = . . . = n = 0
Es decir, el conjunto {(vk+1 ), . . . , (vn )} es linealmente independiente. Probar que el conjunto
anterior genera Im es un asunto bastante inmediato y se deja como ejercicio.
3.3. Isomorfismos
Definicion 3.5 Diremos que L(E, F ) es un isomorfismo si y solo si es biyectiva (en el sentido
de MAT-021), es decir, si: Rg = dimK F y Null = 0.
Definicion 3.6 Si existe un isomorfismo entre dos espacios vectoriales E y F diremos que los es-
pacios son isomorfos.
Corolario 3.11 La relacion E<F , donde < = { los espacios son isomorfos } es una relacion de
equivalencia.
32
Teorema 3.12 Todos los espacios vectoriales de la misma dimension (finita) y sobre un mismo
cuerpo K son isomorfos entre s. En particular, todo Kespacio vectorial de dimension n es isomorfo
a Kn .
T () = 1 1 + . . . + n n
Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dimK E = dimK F .
Demostracion 3.13 Esta demostracion es evidente a partir del Teorema 3.12, pero, haciendo uso
del Teorema 3.9 y la definicion de isomorfismo, se obtiene de inmediato la relacion buscada.
33