Sie sind auf Seite 1von 33

Brevsima (casi rasca) Introduccion al Algebra Lineal

Mauricio Godoy Molina


17 de Octubre de 2005

Resumen
Concluyamos de manera estetica el curso MAT-022. El calculo de antiderivadas, la incom-
prension del teorema fundamental del calculo, la falta de rigurosidad a la hora de definir las
series de funciones, la enorme cantidad de formulas aprendidas para calcular propiedades en las
distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos
que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda-
mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como
muchas veces prima la ley del mnimo esfuerzo, simplemente no se ensenan.
Cerremos el captulo obscuro de MAT-022 y veamos la luz al final del tunel.

1. Algebra de Matrices
La experiencia ha dicho que no necesariamente en todos los colegios se ensenan ciertos topicos
elementales y basicos para el inicio de las matematicas serias (de hecho, el autor no vio muchos de
los temas de los cuales ha escrito en su ensenanza media, como es el caso del algebra de matrices);
por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como
dijo cierto filosofo: hasta el hombre mas sabio, al tomar el libro que menos represente a sus ojos,
aprendera algo; por esto recomendamos a las personas que conocen y dominan estos topicos el dar
al menos una lectura rapida al siguiente apartado.

1.1. Matrices
Observacion: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.)
Definicion 1.1 Diremos que A es una matriz de m n con coeficientes en K si es una funcion
A : {1, . . . , m} {1, . . . , n} K
(i, j) 7 A(i, j) = aij
Se deduce de esto que los elementos de la matriz A, en general, se denotaran con la minuscula de la
matriz con el subndice respectivo al lugar que ocupa.

Observacion: La definicion anterior induce inmediatamente una notacion muy practica para una
matriz A de elementos aij , a saber A = (aij ).
Definicion 1.2 Diremos que la representacion de una matriz de m n con coeficientes en K es un
arreglo rectangular de valores de K, dispuestos en m filas y n columnas.
Definicion 1.3 Diremos que la matriz A = (aij ) es igual a la matriz B = (bij ) si y solo si poseen el
mismo orden (por ejemplo, m n) y cumplen la relacion aij = bij ((i, j) {1, . . . , m} {1, . . . , n}).

1
Ejemplos:

1. La matriz A = (i+j) donde (i, j) {1, . . . , m}{1, . . . , n} posee la representacion rectangular:



2 3 4 ... 1 + n
3 4 5 ... 2 + n
B=

.. .. .. ... ..
. . . .
m + 1 m + 2 m + 3 ... m + n

2. Supongamos la matriz B = (max{i, j}), donde (i, j) {1, . . . , n} {1, . . . , n}. Luego su repre-
sentacion rectangular esta dada por:

1 2 3 4 ... n
2 2 3 4 ... n

3 3 3 4 ... n
B = 4 4 4 4 ... n


.. .. .. .. . . ..
. . . . . .
n n n n ... n

3. La matriz 0mn = (0) es conocida como la matriz nula. Su representacion rectangular esta dada
por:
0 0 0 n veces 0
0 0 0 ... 0
0mn = .. .. ..

. . . . ..
m veces
0 0 0 ... 0

Observacion: Desde ahora en adelante hablaremos en forma indistinta de la matriz y de su rep-


resentacion rectangular.

Definicion 1.4 Diremos que una matriz de m n es una matriz cuadrada si y solo si m = n. En
este caso simplemente se dira que la matriz es cuadrada de orden n (no de n n).

Definicion 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es el
conjunto de los elementos {a11 , . . . , ann }. Diremos, ademas, que la traza de la matriz es la suma de
los elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que
n
X
trA = aii
i=1

Definicion 1.6 El conjunto de todas las matrices de orden m n con coeficientes en K se de-
notara por Mmn (K). En el caso de matrices cuadradas de orden n, la notacion del conjunto es
Mn (K).

Ejemplo Importante: Si A = (aij ) es una matriz cuadrada que cumple que aij = 0 cuando i > j
se conocen como matrices triangulares superiores. Por analoga se definen las matrices triangulares
inferiores (aij = 0 cuando i < j).

2
1.2. Multiplicacion por un Escalar
La multiplicacion entre matrices y escalares es una operacion que surge en forma natural del
estudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como definicion.

Definicion 1.7 El producto entre una matriz y un escalar es una funcion:

: K Mmn (K) Mmn (K)


(, (aij )) 7 (cij ) = (aij )

Ejemplos:

1. Supongamos la matriz 0mn . Es claro que k K : k 0mn = 0mn .

2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los numeros
complejos (en particular para los numeros reales):

a) Si A Mmn (C), entonces 0 A = 0mn .


b) Si A Mmn (C), entonces 1 A = A.

3. Si consideramos la matriz

1 2 3 n
2 3 4 n+1
B= Mmn (R)

.. .. .. .. ..
. . . . .
m m + 1 m + 2 m + n

Y la multiplicamos por R tendremos la siguiente matriz



2 3 n
2 3 4 (n + 1)
B = ..

.. .. .. ..
. . . . .
m (m + 1) (m + 2) (m + n)

1.3. Suma de Matrices


Al igual que la multiplicacion por un escalar, la suma de matrices aparece de manera evidente en
el estudio de las transformaciones lineales. Al igual que en el apartado anterior, solo se entregara como
definicion.

Definicion 1.8 La suma de matrices es una funcion

+ : Mmn (K) Mmn (K) Mmn (K)


((aij ), (bij )) 7 (cij ) = (aij + bij )

En otras palabras la adicion esta definida para matrices del mismo orden y corresponde a la suma de
las dos matrices componente a componente.

3
Ejemplos:
1. Si A Mmn (R), entonces A + 0mn = A.
2. Si A Mmn (R), entonces existe una unica matriz A Mmn (R) tal que A + (A) = 0mn .
Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como A =
1 A.
3. La suma de numeros complejos (en particular reales) puede entenderse como un ejemplo muy
reducido de suma de matrices, pues todo numero complejo puede entenderse como una matriz
de 1 1, es decir, podemos identificar el conjunto M1 (C) con C; asimismo podemos en general
asumir que M1 (K) es lo mismoque K. Este concepto de lo mismose conoce con el nombre de
isomorfismo y sera visto de manera formal como un caso especial de transformaciones lineales.

1.4. Multiplicacion de Matrices


La multiplicacion de matrices es una funcion:
: Mmn (K) Mnr (K) Mmr (K) !
Xr
((aij ), (bij )) 7 (cij ) =
aik bkj
k=1

Es muy importante hacer notar el hecho de los ordenes que tienen que tener las matrices para poder
ser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicar
entre s. En forma analoga al caso real o complejo se define la potenciacion entera de matrices, es
decir
n veces
z }| {
n
A = A A ... A nN A Mn (K)
Ciertas propiedades de esta operacion seran vistas mas adelante, por lo pronto es una simple curiosi-
dad.

Ejemplos:
1. Definiremos la matriz identidad de orden n de la siguiente manera:

1 0 0 0
0 1
0 0
In = 0 0
1 0 Mn (K)
.. .. .. . . ..
. . . . .
0 0 0 1

Esta matriz recibe ese nombre debido a la siguiente propiedad :


A In = Im A = A A Mmn (K)

2. Consideremos las siguientes matrices



2 1 1 1 1 0
B = 1 1 1 , C = 1 3 1 M3 (R)
1 1 2 0 1 1

4
Luego se tiene que
1 0 0
B C = C B = I3 = 0 1 0
0 0 1
Se dice entonces que C es la matriz inversa de B y viceversa.
3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo la
matriz de orden 2  
1 0
M2 (R)
0 0
No tiene inversa, pues si la tuviese se tendra que
    
1 0 a b a b
=
0 0 c d 0 0
Lo cual nunca es posible igualar a I2 .
4. La multiplicacion de matrices no es necesariamente una operacion conmutativa, pues obvia-
mente si multiplicamos una matriz D Mmn (K) por una E Mnm (K) (m 6= n), entonces
D E Mm (K), mientras que E D Mn (K). Otro caso, algo mas patologico, es que si con-
sideramos la matriz D anterior y una matriz F Mn (K), entonces es posible tener el producto
D F , pero no el producto F D.
5. Algo interesante es que ni siquiera la multiplicacion entre matrices cuadradas respeta la con-
mutatividad, a saber
         
1 1 1 4 3 7 1 4 1 1 9 5
= ; =
2 1 2 3 4 11 2 3 2 1 8 5

Ejercicio: Sean A y A0 dos matrices en M2 (R) tales que los elementos de su diagonal principal
son diferentes. Determine condiciones para que A A0 = A0 A. Ademas, verifique que el conjunto
   
a b
CM = A M2 (R) : A = , a, b R
b a
Esta formado solo por matrices que conmutan.
Partamos por considerar las dos matrices A y A0 , es decir, darle valores arbitrarios a sus elementos:
   0 0 
a b 0 a b
A= ; A =
c d c0 d0
Ahora bien, claramente se tiene que sus productos son
 0
aa + bc0 ab0 + bd0
 0
aa + b0 c a0 b + b0 d
 
0 0
AA = ; A A=
a0 c + c0 d b0 c + dd0 ac0 + cd0 bc0 + dd0
Luego, para tener conmutatividad, es necesario que A A0 = A0 A, es decir,
0
aa + bc0 = aa0 + b0 c
bc0 = b0 c


0
ab + bd0 = a0 b + b0 d

0 0 0 0 b (a d) = b(a0 d0 )
0
a c + c d = ac + cd
c0 (a d) = c(a0 d0 )


0
b c + dd0 = bc0 + dd0

5
Dada la hipotesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemos
que a d 6= 0 y que a0 d0 6= 0, por lo tanto las ultimas dos condiciones se reducen a que bc0 = b0 c,
entonces solo basta que se cumpla la primera condicion.
Para el producto definido en el conjunto CM podemos usar los calculos hechos anteriormente, es
decir, si consideramos
 0
u v 0
  
u v 0
z= ; z = CM
v u v0 u0

Tenemos que las condiciones anteriores se reducen a


0
vv 0 = v 0 v vv = v 0 v
0 0 0
v (u u) = v(u u ) 0=0
v 0 (u u) = v(u0 u0 ) 0=0

Condiciones evidentemente satisfechas por v, v 0 R usando la conmutatividad de R.

1.5. Reduccion Gaussiana: Operaciones Elementales


Ahora bien, es de esperarse que los matematicos quisiesemos tratar de comprender como se
comportan ciertas matrices, en otras palabras, tratar de clasificarlas con tal de tener una idea a priori
de ciertas propiedades que veremos mas adelante. Comencemos esta subseccion con la siguiente

Definicion 1.9 (Matrices Elementales Fila) Diremos que A Mn (R) es una matriz elemental
fila si y solo si A posee una de las siguientes formas:
1. A es casi identica a la matriz In , salvo por dos filas i1 , i2 que han sido permutadas. Esta matriz
se suele denotar por A = Fi1 i2 .

2. A es casi identica a la matriz In , salvo por una fila i que ha sido multiplicada por un cierto
escalar no nulo k C \ {0}. Esta matriz se suele denotar por A = Fi (k).

3. A es casi identica a la matriz In , salvo por dos filas i1 , i2 la segunda de las cuales ha sido
multiplicada por un cierto escalar no nulo k C \ {0} y ha sido sumada a la fila i1 . Esta matriz
se suele denotar por A = Fi1 i2 (k).

Observacion: Desde ahora y a menos que se diga lo contrario, K sera reemplazado por R o C para
efectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayora de las veces
de C por el hecho que este contiene a R.

Ejemplos:
1. Claramente In = Fi (1), para todo i = 1, . . . , n y para todo n N.

2. Veamos un ejemplo concreto del primer tipo de matriz elemental fila. En el caso de M4 (C)
tenemos:
1 0 0 0
0 0 1 0
F23 =
0 1 0 0

0 0 0 1

6
3. Ahora veamos un ejemplo del segundo tipo de matriz elemental fila igualmente en el caso de
M4 (C):
1 0 0 0
0 1 0 0
F3 (2) =
0 0 2 0

0 0 0 1

4. Finalmente, en el mismo conjunto M4 (C) veamos como se ve una matriz elemental fila del caso
3:
1 0 0 3
0 1 0 0
F14 (3) =
0 0 1 0

0 0 0 1

Bueno, ahora la pregunta natural sera cual es la gracia de estas matrices? La respuesta es muy
simple, pero no la dare ahora. Alargando un poco la agona veamos el siguiente

Teorema 1.1 Todas las matrices elementales son invertibles, mas aun:
1. Fi1 i2 Fi1 i2 = In .

2. Fi (k)Fi ( k1 ) = In .

3. Fi1 i2 (k)Fi1 i2 (k) = In .

Demostracion 1.1 La demostracion de este teorema quedara mas que clara cuando veamos que es
lo que representan estas matrices elementales fila.

Observacion: Una construccion identica a la de las matrices elementales fila se puede realizar para
matrices elementales columna. Estas se suelen representar por Ci1 i2 , Ci (k) y por Ci1 i2 (k) respectiva-
mente.
Una vez definidos estos objetos un poco abstractos, tratemos de interpretar que significan. Esta
pregunta quedara mas que clara despues de la siguiente definicion y el posterior teorema.

Definicion 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operacion el-
emental fila sobre la matriz A Mmn (C) si:
1. Se han permutado dos filas. Si las filas permutadas han sido i1 y la fila i2 , entonces dicha
operacion se denota por Fei1 i2 .

2. Una fila se ha multiplicado por un escalar no nulo. Si la fila modificada ha sido la i-esima y el
escalar por el cual fue multiplicada es k, entonces dicha operacion se denota por Fei (k).

3. A una fila se le ha sumado otra multiplicada por un escalar no nulo. Si a la fila i1 se le ha


sumado la fila i2 multiplicada por k, entonces dicha operacion se denota por Fei1 i2 (k).

Si se tuvo que hacer una cierta operacion elemental fila Fe para llegar desde A hasta A0 , denotaremos
este hecho por
Fe
A A0
Y diremos que las matrices A y A0 son equivalentes por fila.

7
Claramente esta definicion debe venir seguida del siguiente

Teorema 1.2 Las operaciones elementales fila se relacionan con las matrices elementales fila del
siguiente modo:
Fe
A A0 A0 = F A
Fe
Donde F es la matriz elemental fila respectiva a la operacion Fe, es decir, In F .

Demostracion 1.2 No es difcil, y queda como ejercicio al lector.

Por lo tanto, gracias a este teorema tenemos la siguiente

Definicion 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B Mmn (C) son equiv-
f
alentes por fila (denotado por A B) si se puede obtener B a partir de A con un numero finito de
operaciones elementales fila.

Observacion: El proceso de aplicar operaciones elementales fila (o columna) para obtener matrices
equivalentes por fila (o columna) es llamada Reduccion Gaussiana, en honor al llamado Prncipe de
las Matematicas, el insigne Karl Friederich Gauss.

Ejemplos:

1. Claramente la equivalencia por filas es una relacion de equivalencia, es decir:


f
Es reflexiva: Claramente A A pues basta considerar la operacion elemental fila Fi (1)
(i {1, . . . , m}) que amplifica por 1 la i-esima fila por 1, es decir, deja la matriz invariante.
Es simetrica: Como vimos anteriormente, las operaciones elementales fila son operaciones
invertibles, por lo que si se tiene que:

1 F
f2 F
f k F
f
A B

Entonces basta considerar la siguiente cadena de operaciones:

F 1 F 1 F 1
g g g
k 2 1
B A

Usando las operaciones inversas, vistas en el Teorema 1.1.


f f
Es Transitiva: Esta propiedad es bastante evidente, pues si A B y B C, entonces se
tienen operaciones elementales fila tales que:
f1
F f1
F f1
F f2
F f2
F f2
F
1 2 k 1 2 l
A B B C

Entonces tenemos que:


f1
F f1
F f1
F f2
F f2
F f2
F
1 2 k 1 2 l
A C

8
2. Veamos un ejemplo concreto de como se aplica la reduccion Gaussiana

1 2 1 1 2 1 1 2 1
F
g 31 (1) F
g 21 (3)
3 1 2 3 1 2 0 7 1
1 3 1 0 1 0 0 1 0

1 2 1 1 2 1 1 2 1
F
g 23 (7) F
f2 (1) F
g 23
0 0 1 0 0 1 0 1 0
0 1 0 0 1 0 0 0 1

1 0 1 1 0 0 1 0 0
F
g 12 (2) F
g 13 (1) F
f1 (1)
0 1 0 0 1 0 0 1 0
0 0 1 0 0 1 0 0 1

3. El Teorema 1.2 asegura que en el ejemplo anterior se tiene



1 0 0 1 0 1 1 2 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0 0 0 1 0 1 0
0 0 1 0 0 1 0 0 1 0 1 0 0 0 1

1 0 0 1 0 0 1 0 0 1 2 1
0 1 7 3 1 0 0 1 0 3 1 2 =
0 0 1 0 0 1 1 0 1 1 3 1

7 1 5 1 2 1 1 0 0
= 1 0 1 3 1 2 = 0 1 0
10 1 7 1 3 1 0 0 1

1.6. Matriz Inversa


Algo muy bueno de la reduccion Gaussiana es que permite con bastante simpleza calcular la matriz
inversa de ciertos elementos del conjunto Mn (C). Definamos con mas propiedad dicho concepto.

Definicion 1.12 (Matriz Inversa) Dada una matriz A Mn (C), entonces decimos que es invert-
ible si existe A1 Mn (C) tal que
AA1 = A1 A = In
A la matriz A1 se le llama inversa de A.

Definicion 1.13 (Grupo Lineal) Decimos que el subconjunto de Mn (C) de todas las matrices
invertibles se conoce como el grupo lineal GLn (C) (multiplicativo). Es bastante directo probar las
propiedades que definen a este conjunto como grupo, es decir:
1. Es cerrado, es decir, dadas A, B GLn (C), entonces AB, BA GLn (C).

2. Es asociativo, es decir, dadas A, B, C GLn (C), entonces A(BC) = (AB)C (propiedad hereda-
da de la multiplicacion de matrices).

3. Tiene un elemento neutro, obviamente es la identidad In , cuya inversa es s misma.

4. Tiene inversos, es decir, para cualquier A GLn (C) se cumple que A1 GLn (C). Este hecho
proviene directamente de la definicion.

9
Ejemplos:

1. Es bastante directo ver que la matriz identidad es su propia inversa, a saber:



1 0 0 1 0 0 1 0 0
0 1 0 0 1
0 0 1 0
=

.. .. . . .. .. .. . . .. .. .. . . ..
. . . . . . . . . . . .
0 0 1 0 0 1 0 0 1

2. De acuerdo a los ejemplos anteriores, se tiene que



7 1 5
1 0 1
10 1 7

es la matriz inversa de
1 2 1
3 1 2
1 3 1

3. Existen elementos del conjunto Mn (C) que no estan en GLn (C), por ejemplo, la matriz 0n .

4. En el caso de Mn (C), se tiene una formula explcita para el calculo de la matriz inversa:
 1  
a b 1 d b
=
c d ad bc c a

suponiendo que ad bc 6= 0. Si ad = bc, entonces la matriz no es invertible, como ejercicio,


puede tratar de probar este interesante fenomeno. El valor det = ad bc es conocido como el
determinante de la matriz en el caso de matrices de 2 2.

1.7. Determinante de una Matriz


Antes de empezar con este concepto trascendental, se entregaran algunas definiciones importantes

Definicion 1.14 (Traza) La traza de una matriz A Mn (C) es simplemente la suma de los ele-
mentos de su diagonal principal, es decir:

a11 a12 a1n
n
a21 a22 a2n X
Si A = .. . = tr(A) = aii

.. ..
. . . .. i=1
an1 an2 ann

Definicion 1.15 (Permutacion) Si denotamos Jn = {1, 2, 3, . . . , n} entonces decimos que es


una permutacion de Jn si es una funcion biyectiva : Jn Jn . Diremos que la permutacion es
par o impar si se puede reducir a un numero par o impar de transposiciones respectivamente. Una
transposicion es una permutacion de orden 2, es decir, el cambio de un elemento por otro.

10
Ejemplos:
1. Debiese ser algo mas o menos evidente que tr(In ) = n.
2. Si
7 1 5
A = 1 0 1
10 1 7
entonces tr(A) = 14.
3. Es un simple ejercicio de conteo verificar que si denotamos por
P erm(n) = { : es una permutacion de Jn }
entonces #P erm(n) = n!.
4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de un
cierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebastian en una fila,
cuantas maneras posibles hay de hacerlo? Simplemente 3! = 6.
5. La permutacion 1 : {1, 2, 3, 4} {1, 2, 3, 4} dada por 1 (1) = 2, 1 (2) = 4, 1 (3) = 1 y
1 (4) = 3, es una permutacion impar, mientras que 2 : {1, 2, 3, 4} {1, 2, 3, 4} dada por
2 (1) = 4, 2 (2) = 2, 2 (3) = 1 y 2 (4) = 3 es una permutacion impar.
Definicion 1.16 (Determinante) El determinante de una matriz A Mn (C) es un valor com-
plejo, denotado por det(A), definido como
X
det(A) = (1)a1(1) a2(2) . . . an(n)
P erm(n)

donde el signo positivo o negativo se considera segun la permutacion sea par o impar respectiva-
mente.

Ejemplos:
1. Cuando n = 1, entonces hay solo una posible permutacion, entonces si A = (a11 ), entonces
det(A) = a11 .
2. En el caso n = 2 debiesemos llegar a la definicion de determinante dada en el apartado anterior.
La suposicion es correcta, pues
 
a11 a12
A= = det(A) = a11 a22 a12 a21
a21 a22
3. En el caso n = 3 se tiene que si

a11 a12 a13
A = a21 a22 a23
a31 a32 a33
= det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extension a la
idea del calculo del determinante de 22 (multiplicar los terminos en las diagonales principales,
sumarlos y despues restar los productos en las antidiagonales), este proceso se conoce como
Regla de Sarrus y no es valida en el caso general de determinantes.

11
Observacion: La funcion
det : GLn (C) C
A 7 det(A)
es un caso bastante interesante de una clase particular de homomorfismo de grupos, conocidos como
valuaciones.

1.7.1. Propiedades del Determinante


Enumeraremos algunas propiedades de la funcion determinante, que pueden ser vistos como teo-
remas. Como es usual en la matematica, con la definicion dada no basta para calcular o encontrar
ciertas propiedades del determinante, se recomienda estudiar algunas formas equivalentes de calcu-
larlo. Se dejan las demostraciones de estas proposiciones como ejercicio al lector.

1. det(A) = det(AT ).

2. Si dos filas o dos columnas de A son iguales, entonces det(A) = 0.

3. Si la matriz A resulta a partir de la matriz B al intercambiar dos filas o dos columnas entre
s de B, entonces det(A) = det(B).

4. Si una fila o una columna de A consiste solo en ceros, entonces det(A) = 0.

5. Si la matriz A resulta a partir de la matriz B al multiplicar una fila o una columna por un
escalar c, entonces det(A) = c det(B).

6. Si B = (bij ) se obtiene a partir de A = (aij ) por medio de sumar a cada elemento de la r-esima
fila c veces el elemento correspondiente a la s-esima fila (con r 6= s), entonces det(A) = det(B).

7. Si A = (aij ) Mn (C) es una matriz triangular, entonces


n
Y
det(A) = aii
i=1

8. Una matriz tiene inversa si y solo si su determinante es no nulo.

9. Si A, B Mn (C), entonces det(AB) = det(A) det(B).

Ejemplos:
1. Claramente det(In ) = 1.

2. Mas obvio aun es que det(0n ) = 0.

3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas-
tante similitud usando la resuccion gaussiana. Verifique que

1 2 1
det 3 1 2 = 1
1 3 1

Usando la reduccion gaussiana aplicada sobre ella anteriormente.

12
4. Si se tiene una matriz diagonal

a11 0 0 0

0 a22 0 0

D=
0 0 a33 0

.. .. .. .. ..
. . . . .
0 0 0 ann

se tiene que
n
Y
det(D) = aii
i=1

5. Para calcular el siguiente determinante:




n 1 1
1 1

n 2 1
1 1
n 1 3 1 1
=

n 1 1
4 1
.. .. .. .. .. ..
. . . . . .

n 1 1 1 n

Basta restar a cada fila (excepto a la primera) la primera fila, teniendo el siguiente determinante
(equivalente al primero):


n 1 1 1

1

0 1 0 0

0
0 0 2 0
0
=

0 0 0 3

0
.. .. .. ..
.. ..
. . . . . .

0 0 0 0 n 1

Pivoteando en el primer elemento (n), obtenemos que:




1 0 0
0

0 2 0
0
= n
0 0 3
0
.. .. .. .. ..
. . . . .

0 0 0 n 1

Y dado que el determinante de una matriz diagonal es el producto de los elementos de la


diagonal, se tiene que:

= n 1 2 3 . . . (n 1) = n!

13
2. Espacios Vectoriales
Para comenzar el estudio como tal del algebra lineal, definiremos un concepto trascendental para
las Matematicas

Definicion 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cuadruple (V, +, K, )
donde V es un conjunto (no vaco) de elementos llamados vectores, K es un cuerpo de escalares (que,
en general, seran Q, R o C), + es una operacion (llamada ley interna)

+: V V V
(, ) 7 +(, ) = +

y es una operacion (llamada ley externa)

: KV V
(c, ) 7 (c, ) = c

Cuyos elementos cumplen las siguientes propiedades algebraicas:

1. + y son cerradas en V : + V, y c x V , V, c K.

2. + es conmutativa: + = + , , V .

3. + es asociativa: + ( + ) = ( + ) + , , , V .

4. + tiene neutro: ! 0 V tal que + 0 = 0 + = , V .

5. + tiene inverso: Para cada V, !() V tal que + () = () + = 0.

6. tiene neutro: ! 1 K tal que 1 = 1 = , V .

7. es asociativa: (c1 c2 ) = c1 (c2 ), c1 , c2 K; V .

8. distribuye sobre +: c ( + ) = c + c , c K; , V .

9. la suma en K distribuye sobre : (c1 + c2 ) = c1 + c2 , c1 , c2 K; V .

Observacion: En general la operacion + sera llamada suma y sera conocido como el producto
por escalar; en general este sera denotado por yuxtaposicion, es decir: si V el producto de por
un escalar c K sera c en lugar de c .

Importante: Como ya fuese visto en la definicion, en V existe un vector denotado por 0 tal que
es el neutro aditivo. Este vector es conocido como vector nulo y sera especificada la diferencia entre
el y el elemento neutro aditivo de K solo en caso de ser necesario, en otro caso se debera deducir a
partir del contexto.

Mas Importante Aun: Si consideramos V = {0} se habla del Espacio Vectorial Nulo. Es claro
que V es un K-EV, sin importar el cuerpo que se considere.

14
Ejemplos:

1. Claramente si consideramos V = Rn con K = R con la suma y el producto escalar componente


a componente se tiene un espacio vectorial. A los espacios vectoriales con K = R se les llama
espacios vectoriales reales o REV. Claramente el vector nulo es (0, 0, . . . , 0) Rn .

2. As como en el ejemplo anterior, podemos decir que V = Cn con K = R es un REV con


la suma y la multiplicacion por escalar componente a componente. Algo interesante que notar
es que Cn es tambien un CEV. Se deja como ejercicio que verifiquen que a Rn no se le
puede definir una estructura de CEV, pero que a cualquier CEV se le puede dotar de una
estructura de REV.

3. Definamos el conjunto
(
)
X
`p = {ai }
i=1 sucesion , ai C, i N : |ai | <
i=1

Con 1 p < y con la suma y producto por escalar usual de sucesiones. Este conjunto es un
CEV (y por tanto, un REV) como puede verificarse a partir de algunas de las propiedades
vistas en la Subseccion ??. Si no se ve claramente este hecho, pueden considerarse las series
con coeficientes en R.

4. Consideremos el conjunto

Kn [x] = {a0 + a1 x + . . . + an xn : a0 , a1 , . . . , an K}

Esto es, el conjunto de todos los polinomios con coeficientes en K de grado menor o igual a n.
El conjunto Kn [x] con la suma y el producto por escalar usual de polinomios es un KEV.

5. Consideremos las siguientes leyes (interna y externa respectivamente) sobre el conjunto R+ :

+ : R+ R+ R+
(x, y) 7 xy

: R R+ R+
(, x) 7 x
Se deja como ejercicio verificar las propiedades anteriores para probar que R+ con las leyes
anteriores es un REV.

6. El conjunto Mmn (K) tiene una estructura natural como KEV con la suma y el producto
por escalar usual de matrices.

7. El conjunto de funciones de clase C n (R) (n N) forman un REV con la suma y el producto


escalar de funciones n veces diferenciables visto en MAT-021.

2.1. Subespacios Vectoriales


Consideremos un subconjunto W V no vaco, donde V es un K-EV. Se tiene entonces la
siguiente definicion

15
Definicion 2.2 Diremos que W V es un subespacio vectorial de V si y solo si W es un espacio
vectorial con las operaciones definidas en V restringidas a el.

Teorema 2.1 Se dice que W es un subespacio vectorial de V si y solo si W V y todos los elementos
de W cumplen las siguientes propiedades algebraicas:

1. 0 W . Esta propiedad se deduce tanto de 2. (tomando = ) como de 3. (tomando c = 0),


pero se suele escribir por una cuestion de enfasis.

2. Para cada , W , + W . Es decir, + es cerrada en W . Tambien diremos que W es


invariante bajo la suma.

3. Para cada W y c K, c W . Es decir, + es cerrada en W . Tambien diremos que W es


invariante bajo el producto.

Demostracion 2.1 La demostracion es inmediata, pues se necesita verificar solo la clausura de


la suma y del producto por escalar (es decir, que sean operaciones cerradas). Todas las demas
propiedades son heredadas de V .

Observacion: El hecho de que W sea un subespacio vectorial de V se denota por W V . Si


W 6= V , se dice que W es un subespacio vectorial propio de V y se denota por <.

Ejemplos:

1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2
subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formado
solo por el cero y el espacio completo V . Al considerar los subespacios propios solo se tiene
seguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene solo al espacio nulo como
subespacio propio es R como REV.

2. En R3 (como REV) hay 4 tipos diferentes de subespacios vectoriales geometricamente hablan-


do, a saber:

a) El espacio nulo.
b) Las rectas que pasan por el origen.
c) Los planos que pasan por el origen.
d ) Todo R3 .

Una demostracion de este interesante hecho se puede obtener como un corolario (colorn coro-
lario) a partir del concepto estudiado en la Subseccion 2.5.

3. Si consideramos el conjunto Rn [x] como REV, entonces todos los subespacios vectoriales de
el quedan determinados por Rm [x], con 0 m n, m N.

4. El conjunto de funciones de clase C n (R) forma un subespacio vectorial del REV de las fun-
ciones de R en R.

16
2.2. Combinaciones Lineales
Consideremos un subconjunto finito de vectores de V , un K-EV; a saber:

= {1 , 2 , . . . , k } V

con k N. Junto a este hecho, podemos considerar un subconjunto finito de escalares de K (con
identica cardinalidad que el subconjunto de vectores), a saber:

{c1 , c2 , . . . , ck } K

luego se tiene la siguiente definicion

Definicion 2.3 Un vector V se dice combinacion lineal de los elementos de con coeficientes
c1 , c2 , . . . , ck si se puede escribir de la siguiente forma:

= c1 1 + c2 2 + . . . ck k

Ejemplos:

1. Sean p(x), q(x), r(x) R4 [x] dados por p(x) = x4 + x2 , q(x) = 1 2x3 + 3x2 y r(x) = 3 + 2x,
entonces
2p(x) + q(x) r(x) = 2x4 2x3 + 5x2 2x 2 R4 [x]

2. Si consideramos dos funciones en el espacio C r (R), entonces cualquier combinacion lineal entre
ellas sigue siendo una funcion en C r (R), lo cual se desprende de inmediato de las propiedades
de lmite.

2.3. Subespacios Generados


Consideremos J V , donde V es un K-EV y J 6= . A partir de esto, se tiene la siguiente
definicion:

Definicion 2.4 Diremos que hJ i es el conjunto generado por J si y solo si es el conjunto de todas
las combinaciones lineales de los elementos de J con coeficientes en K.

En base a esta definicion se tiene el siguiente

Teorema 2.2 Dadas las mismas hipotesis y notaciones anteriores (V un K-EV, J un subconjunto
de V , etc.) se tiene que hJ i V .

Demostracion 2.2 Claramente hJ i V , pues hJ i esta generado por el conjunto J V y, por


el Teorema 2.1, se deduce la contencion. Una vez asegurada la contencion, debemos verificar las dos
condiciones dadas en el Teorema 2.1, es decir:

1. Sea j hJi, tomando c = 0 se tiene que 0j = 0 J.

17
2. Sean j1 , j2 hJ i, es decir:

j1 = a1 1 + a2 2 + . . . + ak k
j2 = b1 1 + b2 2 + . . . + bk k

Tenemos que

j1 + j2 = (a1 1 + a2 2 + . . . + ak k ) + (b1 1 + b2 2 + . . . + bk k ) =

= (a1 + b1 )1 + (a2 + b2 )2 + . . . + (ak + bk )k hJ i

3. Sea j hJ i y c K, se tiene que:

cj = c(a1 1 + a2 2 + . . . + ak k ) =

= (ca1 )1 + (ca2 )2 + . . . + (cak )k hJ i

Finalmente, se hara mencion a un concepto muy importante en lo sucesivo:

Definicion 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si
hJ i = V

Ejemplos:
1. En R3 , el espacio generado por un solo vector es una recta que pasa por el origen.

2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0V es
simplemente {0V }.

3. h1, x, x2 , x3 , x4 i = R4 [x].

4. h1, sin(x), cos(x), sin(2x), cos(2x), . . .i es el espacio vectorial de todas las funciones periodicas
de perodo 2, seccionalmente continuas (es decir, que en un intervalo de perodo 2 tienen
un numero finito de discontinuidades). El conjunto {1, sin(x), cos(x), sin(2x), cos(2x), . . .} se
conoce como base de Fourier y se veran algunas propiedades mas en MAT-023.

2.4. Dependencia e Independencia Lineal


Consideremos = {1 , 2 , . . . , k } V , donde V es un K-EV. Se sigue de esto la siguiente
definicion:

Definicion 2.6 Se dice que es un conjunto linealmente dependiente si y solo si existen escalares
c1 , c2 , . . . ck no todos nulos tales que

c1 1 + c2 2 + . . . , ck k = 0

Tambien diremos que J es linealmente dependiente si existe una combinacion lineal no trivial para
0V.

En base a esta definicion es de suponerse la que correspondera a la independencia lineal, en todo


caso:

18
Definicion 2.7 Se dice que es un conjunto linealmente independiente si no es linealmente de-
pendiente. En otras palabras si la unica combinacion lineal para 0 V es la trivial. En forma mas
explcita aun si:
c1 1 + c2 2 + . . . + ck k = 0 c1 = c2 = . . . = ck = 0
Con estas dos definciones en el bolsillo, podemos verificar el siguiente
Teorema 2.3 Un conjunto de vectores J 6= es linealmente independiente si y solo si cada vector
de hJ i se puede escribir en forma unica como combinacion lineal de los elementos de J.
Demostracion 2.3 Dado que el Teorema esta enunciado en forma de equivalencia, debemos probar
una doble implicancia:
J es linealmente independiente.
Razonemos por absurdo. Consideremos hJ i tal que
= a1 1 + . . . + ak k = b1 1 + . . . + bk k
Y que, al menos, a` 6= b` (es decir, consideramos un vector de hJ i tal que posee dos repre-
sentaciones diferentes como combinacion lineal de los elementos de J). Luego, se tiene que
0 = (a1 1 + . . . + ak k ) (b1 1 + . . . + bk k ) =
= (a1 b1 )1 + . . . + (ak bk )k hJ i
Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coeficientes
son identicamente nulos y, por lo tanto, a` = b` , obteniendo la contradiccion esperada.
Todo elemento de hJ i posee una unica representacion como combinacion lineal de los elementos
de J.
Nuevamente podemos razonar por absurdo. Supongamos c1 , . . . , ck no todos nulos tales que
0 = c1 1 + . . . + ck k
Pero dado que los elementos de hJ i pueden escribirse en forma unica como combinacion lineal
de los elementos de J, debe ocurrir que
c1 = . . . = ck = 0
Que es, precisamente, la contradiccion que esperabamos encontrar.
A partir del Teorema anterior, podemos deducir el siguiente
Corolario 2.4 Todo conjunto de vectores tal que 0 es linealmente dependiente.
Demostracion 2.4 La demostracion de este Corolario es trivial a partir del Teorema anterior, pues
supongamos 1 , . . . , k tales que ninguno de ellos corresponde al vector nulo, luego si:
= 1 + . . . + k
podemos considerar la combinacion lineal
+ 1 + . . . + k = 0
que es diferente de la representacion trivial del vector nulo, por lo tanto el conjunto no es lineal-
mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si = {0} la
dependencia lineal es inmediata, pues si c1 , c2 K tales que c1 6= c2 se tiene que
0 = c1 0 = c2 0

19
Ejemplos:

1. El conjunto de vectores de R3 :

{(1, 2, 3), (0, 0, 1), (1, 1, 1), (0, 4, 3)} R3

Es linealmente independiente. Mas aun, como se vera mas adelante, en los ejemplos que traba-
jaremos en este curso existe una cota para la cantidad de vectores linealmente independientes
que pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamados
de dimension infinita). En este caso, la cota es de 3 vectores.

2. Discuta si el conjunto {sin x, cos x, x2 , e3x , 1} es o no linealmente independiente en el REV de


funciones continuas de R en R.

3. El conjunto {1 + i, 2} C es linealmente independiente al ver a C como REV, pero es


linealmente dependiente al ver a C como CEV.

4. Geometricamente, por ejemplo, en R3 se puede pensar la independencia lineal entre dos vectores
como verificar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasa
por el origen con direccion dada por uno de los vectores) contiene al otro vector. Asimismo
podemos definir la independencia lineal entre subespacios vectoriales, por ejemplo, un vector
es linealmente independiente de un plano que pasa por el origen si y solo si el plano contiene
al vector, es decir, que el vector se pueda escribir como combinacion lineal de los vectores que
generan al plano.

2.5. Bases
Para el estudio apropiado del Algebra Lineal, el concepto de base no es menos que trascendental,
es por esto, que la definicion siguiente es de vital importancia en este captulo:

Definicion 2.8 Diremos que B V , donde V es un K-EV, es una base de V si y solo si B es un


generador linealmente independiente de V .

Pero las bases no se quedan solo en definiciones, de hecho queremos demostrar un teorema im-
portante, pero para ello necesitamos de un

Lema 2.5 Si B es una base de V , entonces es el mayor conjunto linealmente independiente de V .

Demostracion 2.5 Consideremos v V tal que v no pertenece a B, luego B {v} es linealmente


dependiente pues dado que B genera a V , existe una combinacion lineal de los elementos de B que
es igual a v.

Este hecho es de vital importancia como veremos en el siguiente

Teorema 2.6 Si una base de V tiene cardinalidad finita n, entonces toda otra base de V tiene
exactamente la misma cardinalidad.

20
Demostracion 2.6 Supongamos B1 y B2 bases de V , de las cuales sabemos solo que Card(B1 ) = n.
Usando el Lema anterior, se deduce que no puede ocurrir que Card(B2 ) > n (pues requerimos que
B2 sea linealmente independiente), es decir, basta verificar que no puede ocurrir que Card(B2 ) < n;
esto se debe a que, de ocurrir que Card(B2 ) < n, B2 no genera a V .
Usemos reductio ad absurdum. Supongamos que B2 es base de V , considerando que Card(B2 ) =
r < n, luego ocurre que B1 es un conjunto linealmente independiente con cardinalidad mayor que la
de la base de V , que se contradice con el Lema anterior.

De este hecho se deduce el siguiente

Corolario 2.7 Si B1 y B2 son bases de un K-EV, entonces existe una funcion biyectiva : B1 B2

Demostracion 2.7 Esta demostracion es muy trivial, pues basta con fijar un orden de los elementos
de ambas bases, luego podemos elegir la funcion que asocia biunvocamente los elementos segun el
lugar que ocupan en el orden preestablecido. Verificar que es biyectiva es, ahora una mera cuestion
de calculo.

Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi-
bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio de
la inclusion de vectores linealmente independientes a la base del subespacio. Veremos la validez de
este hecho en el caso de dimension finita

Teorema 2.8 (Completacion de Base) Supongamos, como es usual, que V es un K-EV tal que
dimK V = n N (es decir, de dimension finita) y W tal que W < V , dimK W = m < n. Si
BW = {w1 , . . . , wm } es base del subespacio W , existen vectores linealmente independientes en V (y
que no estan en W ) um+1 , . . . , un tales que B = BW {um+1 , . . . , un } = {w1 , . . . , wm , um+1 , . . . , un }
es base de V .

Demostracion 2.8 Dado que W < V , entonces existe al menos un vector um+1 V tal que
BW {um+1 } es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el proceso
acaba en el primer paso, si no fuese as, entonces es posible encontrar otro vector um+2 tal que
BW {um+1 , um+2 } es linealmente independiente y as sucesivamente. Por el Lema 2.5 este proceso
termina cuando se alcanzan n vectores linealmente independientes.

Teorema 2.9 (Unicidad de Coordenadas) Si B es una base de V , entonces cualquier elemento de V


(excepto el vector nulo) se puede escribir en forma unica como combinacion lineal de los elementos
de B. El conjunto de escalares que acompanan a los diferentes elementos de la base se conocen como
coordenadas.

Demostracion 2.9 Supongamos B = {1 , . . . , n } y V , luego el conjunto B{} es linealmente


dependiente, es decir, existen escalares 1 , . . . , n , K tales que
n n
X X i
i i + = 0 = i
i=1 i=1

Para verificar la unicidad de la descomposicion supongamos que existen escalares 01 , . . . , 0n K


diferentes de los anteriores, tales que
n
X 0i
= i
i=1

21
luego, se deduce que
n
X
0= (i 0i )i
i=1

y, producto de la independencia lineal de los vectores 1 , . . . , n , se deduce que i = 0i , i = 1, . . . , n,


obteniendo la contradiccion esperada.

Ejemplos:

1. Una base de Rn (como REV) esta dada por:

v1 = (1, 0, 0, . . . , 0) ; v2 = (1, 1, 0, . . . , 0) ; . . . ; vn = (1, 1, 1, . . . , 1)

2. Una base para Kn [x] esta dada por el conjunto linealmente independiente de monomios

p0 (x) = 1 ; p1 (x) = x ; p2 (x) = x2 ;...; pn (x) = xn

3. El espacio vectorial de matrices M2 (R) (visto como REV) tiene como base al siguiente
conjunto:        
1 1 1 0 1 0 0 0
; ; ;
0 0 0 1 1 0 1 1

4. Toda base de R vista como REV tiene solo 1 elemento. Por comodidad se suele utilizar el
conjunto {1}.

5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencia
lineal.

6. Determine cual es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorial
Mmn (R) visto como REV. Sugerencia: Pruebe imaginando a Mmn (R) como otra forma de
escribir Rmn .

2.6. Dimension
Ya con la maravillosa introduccion del concepto de base y el teorema que nos asegura que todas
ellas poseen una misma cardinalidad, parece natural dar un nombre a este numero, por esto la
siguiente definicion:

Definicion 2.9 Diremos que un K-EV posee dimension n N (finita) si la cardinalidad de una
base cualquiera B de V es exactamente n. Si B tuviese cardinalidad infinita, diremos que K-EV es
de dimension infinita.

Observacion: En lo que sigue, supondremos que los espacios vectoriales poseen dimension finita,
excepto cuando la dimension no influya en el ejercicio o en el concepto en s.

Importante: Si en un ejercicio se tratasen con espacios vectoriales de dimension infinita, la idea


es que extiendan los resultados del caso finito al infinito, pues la mayora suelen ser analogos.

22
Observacion: Si la dimension de V , un K-EV, es n N, entonces quedara denotada por n =
dimK V .
Teorema 2.10 Si W V , entonces dimK W dimK V . Mas aun, la igualdad solo ocurre cuando
W =V.
Demostracion 2.10 Es evidente que si W = V , necesariamente su dimension es n. Si W < V ,
existe al menos un vector V tal que no esta en W , por lo tanto, si BW es base de W , hBW i
no genera a V . Claramente si no es generado por BW , tampoco lo son los vectores c (donde
c K). Por lo tanto, la dimension de W es a lo mas n 1, pues el conjunto de los vectores c es
un subespacio vectorial de dimension 1 de V . Se dice que es a lo mas n 1 pues podra ocurrir que
existiese otro vector V que no este en W y que fuese linealmente independiente del vector
anterior y as sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorial
de dimension mayor que 1 y, por tanto, W tendra dimension menor que n 1.

En particular haremos mencion de un espacio vectorial de bastante importancia: el espacio Kn .


Recordemos que la notacion Kn representa el producto vectorial de K n veces, es decir,
Kn = K . . K} = {(x1 , . . . , xn ) tal que x1 , . . . , xn K}
| .{z
n veces

Definiremos la suma y el producto por un escalar en Kn de la siguiente manera:


1. Suma: Sean (x1 , . . . , xn ) y (y1 , . . . , yn ) dos vectores culesquiera de Kn , se define la suma de ellos
como
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
2. Multiplicacion por Escalar: Sean c K y x = (x1 , . . . , xn ) Kn , se define la multiplicacion
entre c y x como
cx = c(x1 , . . . , xn ) = (cx1 , . . . , cxn )
Claramente con estas operaciones resulta que Kn es un espacio vectorial. Con el fin de determinar
su dimension, busquemosle una base. Por simpleza, definiremos un gran ahorro de notacion:
Definicion 2.10 Se define el Delta de Kroenecker de la siguiente manera:

1 si i = j
ij =
6 j
0 si i =
Teorema 2.11 El conjunto Kn es un espacio vectorial sobre K con la suma y la multiplicacion por
escalar componente a componente.
Demostracion 2.11 La demostracion de este teorema es bastante inmediata y se deja de ejercicio
para el lector.
Teorema 2.12 El conjunto Bc = {e1 , . . . , en }, donde
ei = (i1 , . . . , in )
forma una base de Kn .
Demostracion 2.12 Tanto la independencia lineal como la generacion de Kn son triviales en esta
base. Es por esto que esta base se conoce como Base Canonica.
Corolario 2.13 Kn cumple con la propiedad dimK Kn = n
Demostracion 2.13 Cuentense los elementos de la base canonica de Kn .

23
Ejemplos:

1. R visto como QEV tiene dimension infinita. Verifique esta afirmacion tomando, por ejemplo,

{ p : p primo }. Cual es la cardinalidad de la base de este espacio vectorial?

2. El espacio Kn [x] tiene dimension n + 1, pues basta tomar la base canonica presentado en los
ejemplos de la seccion anterior, esto es, tomando la base formada por los monomios

p0 (x) = 1 ; p1 (x) = x ; p2 (x) = x2 ;...; pn (x) = xn

3. Si consideramos el espacio vectorial de las matrices simetricas de n n con coeficientes reales,


verifique que se tiene que su dimension es n(n+1)
2
. Cual es la dimension del espacio vectorial
de matrices antisimetricas? Sorprendase de su resultado al sumar ambos valores Tiene logica?
Si no la tuviese, posiblemente tiene malo su resultado.

4. Cn tiene dimension real (es decir, como REV) 2n, pero dimension compleja n. Claramente
esto se sigue de la construccion de la base de Cn . Trate de obtener su propia base canonica
(que de seguro coincidira con la base canonica usual) en ambos casos y deduzca el enunciado.

5. Si, por ejemplo tomamos el REV Rn [x] y consideramos el subespacio vectorial de este Rm [x]
(evidentemente m n), se tiene de inmediato la desigualdad de las dimensiones.

2.7. Subespacios Especiales


En lo sucesivo, diremos que E y F son subespacios vectoriales de V , un K-EV.

2.7.1. Espacio Interseccion


Es de gran importancia el verificar caractersticas que posee la interseccion de subespacios.

Definicion 2.11 Diremos que E F es el espacio interseccion de los subespacios E y F si y solo si:

E F = {| E F }

Teorema 2.14 Dadas las hipotesis y definiciones anteriores, se cumple que E F V .

Demostracion 2.14 Supongamos 1 , 2 E F y K. Dado que E es un K-EV por s solo,


1 + 2 E y 1 . Lo mismo ocurre al analizarlos como elementos de F . Es decir, se cumple que
tanto 1 + 2 como 1 pertenecen a la interseccion.

Corolario 2.15 Con las convenciones anteriores se tiene que dimK E F dimK V .

Demostracion 2.15 La demostracion se sigue inmediatamente del Teorema 2.10.

Observacion: Es claro que la union de subespacios vectoriales no es un subespacio vectorial.

24
2.7.2. Espacio Suma
As como la interseccion de subespacios presenta propiedades interesantes, lo propio ocurre con
la suma de subespacios.
Definicion 2.12 Diremos que E + F es el espacio suma si y solo si:
E + F = {u + v|u E v F }
Teorema 2.16 Con las convenciones anteriores se tiene que E + F V .
Demostracion 2.16 Consideremos u1 + v1 E + F , donde u1 E y v1 F y, en forma analoga
consideremos u2 + v2 E + F y K. Luego, se sigue de inmediato que, por el hecho que E y F
son espacios vectoriales por s solos, u1 + u2 + v1 + v2 E + F y u1 + v1 E + F .
Corolario 2.17 Con las convenciones anteriores se tiene que dimK (E + F ) dimK V .
Demostracion 2.17 La demostracion se sigue inmediatamente del Teorema 2.10.
Teorema 2.18 Usando las mismas convenciones anteriores se tiene que
dimK (E + F ) = dimK E + dimK F dimK (E F )
Demostracion 2.18 Consideremos BEF = {1 , . . . , m } una base de E F . Dado que E F E
la base BEF se puede completar hasta obtener una base de E, a saber:
BE = {1 , . . . , m , 1 , . . . , n }
Del mismo modo, siguiendo el mismo razonamiento, tenemos que
BF = {1 , . . . , m , 1 , . . . , r }
es una base de F . Con estas bases podemos crear el conjunto B = BE BF , el cual resulta ser base de
E + F . Para verificar esta afirmacion notemos que al considerar una combinacion lineal de elementos
de B tal que sea igual a cero (considerando i , j , k K):
m
X n
X r
X
i i + j j + k k = 0
i=1 j=1 k=1

se puede deducir lo siguiente (haciendo un pequeno arreglo en la notacion, a saber


m n r
!
X X X
v= i i ; v1 = j j ; v2 = k k = 0
i=1 j=1 k=1

v1 E se puede escribir como combinacion lineal de los elementos de F , por lo tanto, v1 F ,


mas aun, v1 E F . Por este hecho, v1 debera poder expresarse como combinacion lineal de los
elementos de BEF , es decir, v1 = 0. Identico razonamiento es valido para v2 = 0, por lo que se
deduce que v = 0. Dada la independencia lineal de los elementos de las bases BE , BF y BEF se
desprende el hecho de que 1 = . . . = m = 1 = . . . = n = 1 = . . . = r = 0.
Para verificar que B = {1 , . . . , m , 1 , . . . , n , 1 , . . . , r } genera a E + F basta ver que todo
elemento de E + F se escribe como la suma de elementos de E y F y, dado que las bases de estos
subespacios estan contenidas en B, podemos crear cualquier vector de E +F como combinacion lineal
de los elementos de B.

25
2.7.3. Espacio Suma Directa
Esta particularizacion del espacio suma es de vital importancia en el estudio venidero del algebra
lineal, por lo tanto, pongan especial atencion.

Definicion 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio suma
E + F con la restriccion de que E F = {0}. Denotamos la suma directa de E y F por E F.

Ahora bien, es de esperarse que se tenga el siguiente

Teorema 2.19 Usando las notaciones anteriores se tiene que E F V .

Demostracion 2.19 La demostracion es exactamente la misma que en el Teorema 2.16.

Corolario 2.20 Usando las notaciones anteriores, se tiene que

dimK E F = dimK E + dimK F

Demostracion 2.20 Se deduce este corolario al notar que E F = {0}, por lo tanto, se tiene que
dimK E F = 0. Luego basta utilizar el Teorema 2.18.

Finalmente, un importantsimo

Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = E F . Este espacio
se conoce como el complementario de E respecto de V .

Demostracion 2.21 Este teorema se sigue directamente del Teorema 2.8.

Ejemplos:
n veces
1. Rn = R R R.

2. R3 [x] = {a + bx : a, b R} {cx2 + dx3 : c, d R}.

3. Mn (R) = Sn (R)+An (R), donde Sn (R) es el espacio vectorial de matrices simetricas (invariantes
bajo transposicion) y An (R) el de las matrices antisimetricas (que tras una transposicion,
cambian de signo). Verifique esta afirmacion.

4. F(R, R) = P(R, R) I(R, R) donde F(R, R) es el espacio vectorial de funciones de R en R,


P(R, R) es el espacio vectorial de funciones pares y I(R, R), el de funciones impares. Verifique
esta afirmacion.

26
2.7.4. Espacio Cociente
Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se continua
en el estudio de las matematicas, se vera que no es menos que natural. Es una situacion parecida a
medir los angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos en
base 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural).
Antes de comenzar con el Espacio Cociente, veamos una definicion sencilla que, perfectamente pudo
haber sido dada en MAT-021.

Definicion 2.14 Diremos que una relacion < es una relacion de equivalencia si dados x, y, z
Dom<:

1. La relacion es reflexiva:
x<x

2. La relacion es simetrica:
Si x<y = y<x

3. La relacion es transitiva:
Si x<y y y<z = x<z

Ahora bien, dado un conjunto A en el cual se tiene una relacion de equivalencia, se da en forma
natural una particion del conjunto.

Definicion 2.15 Diremos que un conjunto A esta particionado en una coleccion de subconjuntos de
A: = {A1 , . . . , An } si y solo si
n
[ [
Ai = =A donde Ai Aj = si i 6= j
i=1

No existe ningun impedimento de extener esta deinicion al caso infinito.

Si la particion de un conjunto es heredada a partir de una relacion de equivalencia, cada uno de los
subconjuntos que forman son llamados clases de equivalencia. En el caso de Espacios Vectoriales,
la relacion de equivalencia mas simple, con sus respectivas clases, queda dada por

Definicion 2.16 Dados , V diremos que estan en la misma clase de equivalencia respecto del
subespacio E si y solo si:
E
Denotaremos este hecho por [], donde [] denota la clase de equivalencia con como represen-
tante.

Proposicion 2.22 La relacion definida anteriormente es, efectivamente, una relacion de equivalen-
cia.

Demostracion 2.22 La demostracion de esto es trivial, pues solo basta verificar las condiciones
dadas en la Definicion 2.14.

27
La definicion anteriormente dada induce a una notacion muy util para las clases de equivalencia,
a saber:
[] = + E = { + | E}
Esta importante definicion permite definir el Espacio Cociente, usando la notacion antes definida.

Definicion 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V /E es el Espacio
Cociente del espacio V respecto de su subespacio E si y solo si:
V /E = {[]| V }

En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto al
subespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido solo a
las clases de equivalencia respecto de E.

Teorema 2.23 El espacio cociente entre V y E cumple: V /E V , con las operaciones inducidas
por la relac ion de equivalencia, dadas por:
V /E V /E V /E
( + E, + E) 7 ( + ) + E

K V /E V /E
(, + E) 7 () + E
Demostracion 2.23 La misma definicion de la aritmetica de equivalencia demuestra este teorema.

El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacio
y del subespacio.

Teorema 2.24 Supongamos BE = {1 , . . . , k } base de E. Al completar la base BE a B (una base


de V ), a saber
B = {1 , . . . , k , 1 , . . . , n }
se tiene que el conjunto BV /E = {[1 ], . . . , [n ]} es base de V /E.

Demostracion 2.24 Que el conjunto es linealmente independiente se desprende de la definicion de


la aritmetica de equivalencia dada en el Teorema 2.23, pues si 1 , . . . , n K:
n n n
!
X X X
i [i ] = i (i + E) = i i + E = 0
i=1 i=1 i=1

esto quiere decir que " #


n
X
i i = [0]
i=1

por lo tanto, ni=1 i i E; pero notemos que este vector debe tambien estar en el complementario
P
de E ya que es combinacion lineal de los elementos de su base, por lo tanto, 1 , . . . , n = 0.
El hecho de que BV /E genera a V /E se desprende inmediatamente, pues si [] = + E V /E,
entonces existen 1 , . . . , k , 1 , . . . , n K tales que:
k
X n
X
= i i + j j
i=1 j=1

28
debido a que V . Luego, usando la aritmetica de equivalencia dada en el Teorema 2.23 se tiene
que
Xn Xn
+E = j j + E = j (j + E)
j=1 j=1

Teorema 2.25 Bajo las convenciones anteriores se tiene que dimK V /E = dimK V dimK E

Demostracion 2.25 Este teorema se sigue inmediatamente del Teorema 2.24.

3. Transformaciones Lineales
Nos interesa estudiar, ademas de conjuntos que posean propiedades especiales, funciones que
conserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espacios
vectoriales tales que cumplan

f ( + ) = f () + f () ; f () = f ()

con , V (donde V es un K-EV y K). En esencia utilizaremos las mismas convenciones


que en la seccion anterior, con la salvedad que, debido a que en general vamos a trabajar sobre dos
espacio vectoriales diferentes, utilizaremos el nombre del espacio como subndice en el caso del vector
nulo respectivo. Por ejemplo, en el espacio vectorial E el vector nulo respectivo sera denotado por
0E .

Definicion 3.1 Diremos que una funcion L : V W (con V y W K-EV) es una transformacion
lineal (o aplicacion lineal) si preserva la estructura de espacio vectorial, es decir, si , V y K:

L( + ) = L() + L() ; L() = L()

De esto se deduce que L(), L() W y L() W .

Definicion 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E y
de llegada a F lo denotaremos por L(E, F ).

En base a las definiciones anteriores se tiene el siguiente

Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F ) es un espacio
vectorial con las operaciones

+ : L(E, F ) L(E, F ) L(E, F )


(1 , 2 ) 7 (1 + 2 )

: K L(E, F ) L(E, F )
(, ) 7 ()
Estas operaciones se aplican del siguiente modo: (1 + 2 )() = 1 () + 2 () y ()() = ().

Demostracion 3.1 Con la definicion de las operaciones entre transformaciones lineales esta de-
mostracion es trivial.

29
Lema 3.2 Si B = {1 , . . . , k } es una base de E y L(E, F ) tal que (i ) = 0F (i = 1, . . . , k),
entonces, 0.

Demostracion 3.2 Supongamos () 6= 0F para algun E. Dado que se puede escribir


unicamente como combinacion lineal de los elementos de la base, por el Teorema 2.9, se tiene lo
siguiente si = 1 1 + . . . + k k :

() = (1 1 + . . . + k k ) = 1 (1 ) + . . . + k (k ) = 0F

Obteniendo la contradiccion esperada.

Teorema 3.3 Supongamos B = {1 , . . . , k } una base de E y = {1 , . . . , k } vectores de F ,


entonces, existe una unica L(E, F ) tal que (i ) = i (i=1,. . . ,k).

Demostracion 3.3 Necesitamos verificar la existencia, lo cual es evidente pues conocemos su accion
sobre una base, a saber, si E entonces = 1 1 + . . . + k k , entonces () = 1 1 + . . . + k k
donde i son conocidos por la descomposicion de en sus coordenadas (que son unicas por el Teorema
2.9) y i son conocidos por ser la accion sobre la base.
La unicidad se verifica suponiendo la existencia de 0 tal que 0 (i ) = i (i = 1, . . . , k). Luego la
transformacion ( 0 ) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema
3.2 se deduce la tesis de unicidad.

3.1. Nucleo de una Transformacion Lineal


Definicion 3.3 Diremos que ker E es el nucleo de L(E, F ) si y solo si este corresponde al
conjunto de preimagenes de 0F , es decir, si ker : () = 0F .

Lema 3.4 Siempre, sin importar la transformacion lineal L(E, F ), se cumple que 0E ker .

Demostracion 3.4 La demostracion es puramente operatoria y es similar a demostrar que 0 a =


0, a R.
(0E ) = (0E + 0E ) = (0E ) + (0E ) = (0E ) = 0F

Teorema 3.5 El nucleo de una transformacion lineal es un subespacio vectorial del espacio de partida
de esta, es decir, usando las notaciones usuales: ker E.

Demostracion 3.5 Es claro que ker 6= , debido al Lema 3.4. Ahora bien, supongamos , ker
y K, entonces se tiene:

( + ) = () + () = 0F + 0F = 0F

() = () = 0F = 0F

30
Observacion: Al nucleo de una transformacion lineal tambien se le llama el kernel de esta. A la
dimension del nucleo se le conoce como nulidad (Null = dimK ker ).

Teorema 3.6 Una transformacion lineal L(E, F ) es inyectiva (en el sentido de ??) si y solo si
ker = {0E }.

Demostracion 3.6 Dado que el teorema esta enunciado en forma de equivalencia, debemos probar
las dos implicancias:

ker = {0E }.
Supongamos , 0 E tales que () 6= (0 ), por lo tanto, ( 0 ) 6= 0F , es decir, 0
no esta en ker y, por lo tanto, 6= 0 .

es inyectiva.
Supongamos , 0 ker , es decir, si () = (0 ) = 0F entonces = 0 , , 0 ker y,
dado que 0E ker (por el Lema 3.4), se tiene que ker = {0E }.

3.2. Imagen de una Transformacion Lineal


Definicion 3.4 Diremos que Im F es la imagen de L(E, F ) si y solo si Im,
E : () = .

Teorema 3.7 La imagen de una transformacion lineal es un subespacio vectorial del espacio de
llegada, es decir, usando las notaciones anteriores: Im F .

Demostracion 3.7 Evidentemente Im 6= (Lema 3.4), luego supongamos 1 , 2 Im y K,


entonces, existen 1 , 2 E tales que (1 ) = 1 y (2 ) = 2 , por lo tanto, existen 1 +2 , 1 E
tales que (1 + 2 ) = (1 ) + (2 ) = 1 + 2 Im y (1 ) = (1 ) = 1 Im.

Observacion: La imagen de una transformacion lineal tambien se le denotara por (E). A la


dimension de la imagen se le conoce como rango (Rg = dimK Im).

Teorema 3.8 Si B = {1 , . . . , k } es base de E, entonces

(B) = {(1 ), . . . , (k ))}

genera a Im.

Demostracion 3.8 Supongamos Im, luego existe un E tal que () = . Dado que
= 1 1 + . . . + k k en forma unica (por el Teorema 2.9) se tiene lo siguiente:

() = = 1 (1 ) + . . . + k (k )

Es decir, cualquier elemento de Im se escribe como combinacion lineal de los elementos de (B).

Teorema 3.9 Si L(E, F ) se tiene la siguiente relacion

Rg + Null = dimK E

31
Demostracion 3.9 Consideremos V un espacio vectorial de dimension n, es decir:
BV = {v1 , . . . , vk , vk+1 , . . . , vn }
es una base de V . Ademas, sin perdida de la generalidad, podemos considerar que
Bker = {v1 , . . . , vk }
es base de ker . Basta probar que
B{(vk+1 ), . . . , (vn )}
es base de Im. Para esto, consideremos una combinacion lineal de dichos vectores igualada a 0F ,
esto es:
k+1 (vk+1 ) + . . . + n (vn ) = 0F
como es transformacion lineal, podemos hacer lo siguiente:
k+1 (vk+1 ) + . . . + n (vn ) = (k+1 vk+1 + . . . + n vn )
Y, por lo tanto, k+1 vk+1 + . . . + n vn ker , pero son vectores linealmente independientes de los
vectores que generan al nucleo de , por lo tanto, necesariamente debe cumplirse que
k+1 = . . . = n = 0
Es decir, el conjunto {(vk+1 ), . . . , (vn )} es linealmente independiente. Probar que el conjunto
anterior genera Im es un asunto bastante inmediato y se deja como ejercicio.

3.3. Isomorfismos
Definicion 3.5 Diremos que L(E, F ) es un isomorfismo si y solo si es biyectiva (en el sentido
de MAT-021), es decir, si: Rg = dimK F y Null = 0.

Definicion 3.6 Si existe un isomorfismo entre dos espacios vectoriales E y F diremos que los es-
pacios son isomorfos.

Teorema 3.10 Si L(E, F ) es un isomorfismo, 1 L(F, E) (inversa en el sentido de MAT-


021) es tambien un isomorfismo.

Demostracion 3.10 Si 1 L(F, E) entonces Im1 E. Tenemos que (E) = F y que


1 (0F ) = {0E }. Luego, supongamos que existe E tal que no pertenece a Im1 ; dado
que existe F tal que () = y es isomorfismo se tiene la contradiccion pues = 1 ().
En forma analoga se tiene que ker 1 F y que es no vaco (Lema 3.4). Supongamos
ker 1 , 6= 0F , entonces 1 () = 0E que es equivalente a decir = (0E ) = 0F , obteniendo la
contradiccion esperada.

Corolario 3.11 La relacion E<F , donde < = { los espacios son isomorfos } es una relacion de
equivalencia.

Demostracion 3.11 La propiedad reflexiva queda inmediatamente verificada usando el isomorfismo


identidad (es decir: Id() = ). La simetra queda verificada por el Teorema 3.10. Finalmente la tran-
sitividad es evidente a partir de la composicion de isomorfismos. Los detalles pueden ser completados
con calma como ejercicio.

32
Teorema 3.12 Todos los espacios vectoriales de la misma dimension (finita) y sobre un mismo
cuerpo K son isomorfos entre s. En particular, todo Kespacio vectorial de dimension n es isomorfo
a Kn .

Demostracion 3.12 Supongamos BE = {1 , . . . , n } base de E y BF = {1 , . . . , n } base de F .


Consideremos la transformacion lineal T L(E, F ) tal que T (i ) = i (i = 1, . . . , n), en forma
explcita si = 1 1 + . . . + n n se tiene que:

T () = 1 1 + . . . + n n

Claramente T es inyectiva debido al Teorema 2.9 y, evidentemente, es epiyectiva, por lo tanto T es


un isomorfismo. Para el caso particular de Kn basta con considerar, por ejemplo, la base canonica.

Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dimK E = dimK F .

Demostracion 3.13 Esta demostracion es evidente a partir del Teorema 3.12, pero, haciendo uso
del Teorema 3.9 y la definicion de isomorfismo, se obtiene de inmediato la relacion buscada.

33

Das könnte Ihnen auch gefallen