Beruflich Dokumente
Kultur Dokumente
Espacios vectoriales
En este captulo vamos a definir un espacio vectorial real de dimension finita desde
un punto de vista abstracto. De hecho, a lo largo de esta seccion utilizaremos la notacion
de Dirac para vectores, con la finalidad de que el lector se familiarice con esta notacion que
es utilizada con frecuencia en diversas areas de la fsica. Con este uso de notacion ademas
se preparara al lector para introducirse en espacios vectoriales de dimension infinita no
necesariamente reales. Muchos de los resultados que se discutiran por lo tanto seran validos
en casos mas generales.
1.1.
Espacios vectoriales
Espacios Vectoriales
III) Existe un u
nico vector |0i 2 V, llamado vector cero, tal que |ai + |0i = |ai para
cualquier vector |ai 2 V.
IV) A cada vector |ai 2 V le corresponde un u
nico vector
en el espacio vectorial V tal que |ai + ( |ai) = |0i.
2. Para cada n
umero complejo 2 C (tambien denominado escalar) y cada vector
|ai 2 V les corresponde un vector |ai 2 V tal que
V) Si
1. R es un espacio vectorial sobre el campo de los reales R. Es claro entonces que las
propiedades 1, 2 y 3 de la definicion 1.1.1 se satisfacen automaticamente por las
propiedades de los n
umeros reales.
2. R es un espacio vectorial sobre el campo de los reales R. De manera completamente
analoga al caso anterior se puede verificar que se cumplen las propiedades 1,2 y 3
de la definicion 1.1.1 por las propiedades de los n
umeros complejos.
3. R es no un espacio vectorial sobre el campo de los complejos C. Si x, y 2 R,
denotaremos los correspondientes vectores por |xi y |yi respectivamente. Si es
un escalar entonces |xi = x es un n
umero complejo. Esto quiere decir que |xi
no pertenece al espacio vectorial R pues no es un n
umero real. Esto indica que la
propiedad 2 de la definicion 1.1.1 no se satisface.
4. Denotese por P c [x] el conjunto de los polinomios con coeficientes complejos con
variable x. Entonces Pnc [x] es un espacio vectorial sobre el campo de los complejos.
En este caso la suma de vectores se toma como la suma ordinaria entre polinomios
y la multiplicacion por escalares como la multiplicacion ordinaria entre polinomios
y n
umeros complejos:
Espacios Vectoriales
P
P
n
n
a) Suma de vectores: sea |ai = 1
sea |bi = 1
n=0 an x y P
n=0 bn x . Entonces la
1
suma |ai + |bi es un polinomio, |ai + |bi = n=0 (an + bn )xn . Se puede verifica
sin problema los puntos I), II), III) y IV) de la definicion 1.1.1. Para el punto
III), el vector cero es el polinomio con todos sus coeficientes iguales a cero:
|0i = 0.
b) P
Multiplicacion por escalares. Si es un escalar (un n
umero complejo) y |ai =
1
n
a
x
es
un
vector,
entonces
|ai
sigue
siendo
un vector en Pnc [x] pues
n=0 nP
1
|ai = n=0 an xn es un polinomio con coeficientes complejos. Esto verifica
el punto V). El escalar 1 + 0i = 1 2 C es tal que 1 |ai = |ai para cualquier
polinomio |ai. Esto verifica el punto VI).
c) Finalmente la propiedad distributiva entre vectores y escalares se verifica directamente de la propiedad distributiva entre n
umeros complejos y polinomios
con coeficientes complejos.
5. Denotese por P r [x] el conjunto de los polinomios con coeficientes reales con variable
x. En este caso, Pnr [x] no es un espacio
sobre el campo de los complejos.
Pvectorial
1
n
De hecho, si es un escalar
y
|ai
=
a
x
es
un polinomio con coeficientes
n=0 n
P1
n
reales, entonces |ai = n=0 an x resulta ser un polinomio con coeficientes complejos. Esto quiere decir que |ai 62 Pnr [x], y po lo tanto falla el punto 2 de la
definicion 1.1.1.
6. El conjunto de las matrices complejas de tama
no m n, Mmn es un espacio
vectorial sobre el campo de los complejos con la suma vectorial definida como la suma
ordinaria entre matrices y la multiplicacion por escalares como la multiplicacion
ordinaria entre matrices y n
umeros complejos.
7. El conjunto de las funciones reales C 1 , que poseen derivadas de todos los ordenes
y estan definidas sobre el intervalo (a, b) (con a < b 2 R), es un espacio vectorial
sobre el campo de los reales. La suma entre vectores definida como la suma ordinaria
entre dos funciones y el producto por escalares definido como el producto ordinario
entre una funcion y un n
umero real.
Podemos entonces apreciar como la existencia de un espacio vectorial real o complejo dependen mucho de la naturaleza de los vectores as como de la de los escalares. A
continuacion vamos a definir una serie de conceptos que son importantes en el estudio de
espacios vectoriales tales como las nociones de independencia lineal, subespacios vectoriales o base de un espacio vectorial. En lo que sigue vamos a suponer que el campo sobre
el que se define el espacio vectorial es el de los complejos C aunque las definiciones son
validas en general cuando se define el espacio vectorial sobre cualquier campo, como el de
los reales R.
Espacios Vectoriales
Definici
on 1.1.2. Decimos que un conjunto de vectores |a1 i, |a2 i, . . . , |an i son
linealmente independientes si la igualdad,
n
X
j=0
j |aj i = 0
con
j 2 C,
Pn
j=0
Definici
on 1.1.3. Sea V un espacio vectorial. Decimos que un subconjunto no
vaco W de V es un subespacio de V si para cualesquiera dos vectores |ai, |bi contenidos
en W se tiene que la combinacion lineal |ai + |bi tambien es un vector en W para
cualesquiera , 2 C.
La siguiente proposicion nos dice que un subespacio es en s mismo un espacio
vectorial y mas a
un, que la interseccion de dos subespacios de un espacio vectorial es un
subespacio. Este resultado se puede utilizar para saber si un subconjunto de un espacio
vectorial es un espacio vectorial, pues solo necesitamos verificar la condicion establecida
en la definicion 1.1.3. Su demostracion se deja como ejercicio para el lector.
Proposici
on 1.1.1. Un subespacio W de un espacio vectorial V es un es un
espacio vectorial. La interseccion de dos subespacios de un mismo espacio vectorial es un
subespacio.
El siguiente teorema nos da una va para definir un subespacio a partir de cualquier
conjunto de vectores.
Teorema 1.1.1. Sea S un conjunto no vaco de vectores de un espacio vectorial
V. Sea WS el conjunto definido como la coleccion de todas las combinaciones lineales de
vectores en S. Entonces WS es un subespacio. Decimos que WS es la prolongaci
on de
S por combinaciones lineales o bien que WS el espacio prolongado o generado por el
conjunto de vectores S y denotaremos esta accion como WS = span{S}
Demostracion. Sean |ai, |bi 2 WS . Puesto que |ai y |bi son combinaciones lineales de
vectores en S entonces podemos escribir,
X
|ai =
j |aj i,
|aj i2S
|bi =
|bj i2S
j |bj i,
Espacios Vectoriales
donde
j, j
j |aj i
|aj i2S
|bj i2S
( j |aj i +
j |bj i
j |bj i) .
(1.1)
De lo anterior podemos apreciar que |ai + |bi resulta ser tambien una combinacion
lineal de vectores contenidos en S para cualesquiera , 2 C.
Definici
on 1.1.4. Decimos que un conjunto de vectores B de un espacio vectorial
V es una base de V si se cumple que: i) los vectores en B son linealmente independientes
y ii) que todo el espacio vectorial V es la prolongacion de B por combinaciones lineales,
es decir, span{B} = V. Si un espacio vectorial tiene una base finita entonces decimos que
el espacio vectorial tiene dimenci
on finita y en caso contrario diremos que el espacio
es de dimensi
on infinita.
Teorema 1.1.2. Sea V un espacio vectorial de dimension finita. Entonces cualquier base de V tiene siempre la misma cardinalidad, es decir cualquier base escogida tiene
siempre la misma cantidad de vectores. A dicho n
umero le daremos el nombre de dimensi
on del espacio vectorial. Un espacio vectorial de dimension N se denotara algunas veces
como VN para enfatizar que se trata de un espacio de dimension finita de tama
no N .
Los espacios vectoriales que ya nos son familiares como R2 o R3 tenemos una nocion
intuitiva de lo que denominamos base: una base nos proporciona una manera u
nica de
representar un vector en dichos espacios. Nuestra generalizacion de base en espacios vectoriales abstractos en el sentido de las definiciones dadas nos permite alcanzar la misma
conclusion al menos para el caso de espacios vectoriales de dimension finita.
Proposici
on 1.1.2. Sea VN un espacio vectorial de dimension finita y sea B :=
{|aj i}N
una
base
de VN . Entonces cualquier para vector |ai 2 VN existe un u
nico conj=1
N
junto de escalares {j }j=1 tal que
|ai =
N
X
j=1
j |aj i.
Espacios Vectoriales
Finalmente cabe a
nadir que si tomamos el espacio generado por un subconjunto de
m < N vectores de una base B = {|aj i}N
j=1 de un espacio vectorial Vn , obtenemos un
espacio vectorial que es un subespacio de VN .
Ejemplo 1.1.2. A continuacion daremos algunos ejemplos de subespacios de espacios vectoriales.
1. Considerese el espacio vectorial C sobre el campo de los reales. Entonces el conjunto
de n
umeros complejos con parte imaginaria identica a cero R C es un subespacio
de C.
2. En cambio, si el espacio vectorial C se define sobre el campo de los complejos C
entonces el conjunto de n
umeros complejos con parte imaginaria identica a cero
R C no es un subespacio de C.
3. El conjunto de polinomios de orden n con coeficientes complejos, al que denotaremos
por Pnc [x] es un subespacio dePP c [x]. En efecto,Pdados , 2 C arbitrarios y dos
polinomios de orden n, |ai = nj=0 aj xj y |bi = nj=0 bj xj , entonces es claro que la
P
combinacion lineal de polinomios |ai + |bi = nj=0 (aj + bj )xj es un polinomio
de orden n. Entonces |ai, |bi 2 Pnc [x] implica que |ai + |bi 2 Pnc [x] lo que muestra
que Pnc [x] es un subespacio de P c [x]. Esto a su vez muestra, por la proposicion 1.1.1
se sigue que P c [x] es un espacio vectorial sobre el campo de los complejos.
4. El conjunto de los reales R es un subespacio de R2 sobre el campo de los reales. En
general el espacio eucldeo Rm es un subespacio de Rn sobre el campo de los reales,
para cualquier m < n.
Ejemplo 1.1.3. A continuacion daremos algunos ejemplos de bases de algunos
espacios vectoriales.
1. El n
umero 1 es una base para el espacio vectorial R definido sobre el campo de los
reales. La dimension de este espacio vectorial es 1.
2. El n
umero 1 2 C y el n
umero i 2 C forman una base del espacio vectorial C definido
sobre el campo de los complejos C. La dimension de este espacio vectorial es 2.
3. El n
umero 1 2 C es una base del espacio vectorial C definido sobre el campo de los
reales R. En contraste con el caso anterior, este espacio vectorial tiene dimension 1.
Entonces tenemos que un mismo espacio vectorial puede tener dimension diferente
si se cambia el campo sobre el que esta definido. En otras palabras, la dimension de
un espacio vectorial depende de la naturaleza de los escalares.
Producto Interno
forman una base de R3 sobre el campo de los reales. La dimension de este espacio
vectorial es 3.
5. Una base para P c [t] se forma a partir del conjunto de monomios {1, t, t2 , . . . }. Este
espacio es claramente de dimension infinita.
6. El conjunto que consiste de los monomios {1, t, t2 , . . . , tn } forma una base para el
espacio Pnc [x]
1.2.
Producto interno
1.2.1.
La estructura de la que ahora dotaremos a un espacio vectorial es la que denominaremos en adelante producto escalar o producto interno, que es en esencia una generalizacion
de la operacion denominada producto punto. Dicha operacion es llevada a cabo entre
dos vectores a los que se le asocia un elemento de un campo que podemos tomar como el
conjunto de los n
umeros reales. La asociacion mencionada se denota simbolicamente como
g : V V ! R. En el espacio vectorial Rn la aplicacion g se denota habitualmente como
g(a, b) = a b. Esta operacion binaria tiene ciertas propiedades que la vuelven especial y
la diferencian de otras operaciones definidas anteriormente. Por ejemplo, g es simetrica,
es decir, g(a, b) = g(b, a) y es lineal en su primer y segundo argumentos:
g(a + b, c) = g(a, c) + g(b, c)
10
Espacios Vectoriales
o equivalentemente
(a + b) c = a c + b c
De hecho, una funcion que es lineal en sus dos argumentos es denominada bilineal. El
producto punto ademas es una operacion que permite obtener la longitud de un vector
o su norma, esto es, ||a|| = g(a, a) = a a
0. Esta propiedad ademas asegura que el
u
nico vector de longitud cero es el vector cero, i.e., g(a, a) = 0 si y solo si a = 0. Nos
gustara pues, generalizar esta propiedades a espacios vectoriales abstractos. Sin embargo,
la bilinealidad mostrada arriba conduce a una contradiccion cuando usamos el campo de
los complejos. Notese que, para un vector no nulo a, la bilinealidad de g conduce a,
g(ia, ia) = i2 g(a, a) =
g(a, a).
Entonces, alguna de las dos cantidades g(ia, ia) o g(a, a) debe ser negativa. Esto implicara
que un vector podra tener longitud negativa, lo que es imposible por mera definicion
de longitud. Esta inconsistencia puede evitarse si debilitamos la propiedad de bilinealidad
sustituyendola por linealidad en uno solo de sus argumentos. En efecto, podemos apreciar
que si la linealidad en el otro argumento la mantenemos bajo conjugacion obtenemos
resultados consistentes. Esto sin embargo, requiere tambien modificar la nocion de simetra
del producto interno para tener de igual forma, resultados consistentes.
Definici
on 1.2.1. El producto interno entre dos vectores |ai y |bi en un espacio
vectorial V es un n
umero complejo g(|ai, |bi) 2 C tal que,
(a) g(|ai, |bi) = g(|ai, |bi) .
(b) g (|ai, (|bi + |ci)) = g(|ai, |bi) + g(|ai, |bi).
(c) g(|ai, |ai)
Un espacio vectorial dotado de un producto interno recibe el nombre espacio con producto interno. La propiedad (c) es conocida como la propiedad de positividad definida
del producto interno. Un producto interno que es positivo definido es llamado tambien
producto interno Riemanniano. En cualquier otro caso es llamado producto interno pseudo-Riemanniano
Debe notarse que la linealidad en el primer argumento esta ausente ya que, como
se explico anteriormente, podra ser inconsistente. De hecho, si usamos la propiedad de
simetra (a) podemos concluir que es necesaria una operacion adicional para tener
linealidad en el primer argumento. Primero notemos que si tenemos para un 2 C y
cualesquiera dos vectores |ai, |bi 2 V de un espacio vectorial V se tiene que
g(|ai, |bi) = g(|ai, |bi) = g(|ai, |bi) ,
Producto Interno
11
donde se ha hecho uso de las propiedades (a) y (b) del producto interno. La ecuacion anterior indica que una constante puede salir del primer argumento conjugada. De hecho,
usando las mismas propiedades podemos concluir una propiedad mas general. Dados dos
escalares , 2 C y dados cualesquiera dos vectores |ai, |bi 2 V de un espacio vectorial
V, se tiene que
g(|ai + |bi, |ci) = g(|ai, |ci) +
g(|bi, |ci) ,
(1.2)
Se puede decir que la propiedad anterior es una especie de linealidad del producto interno, con la diferencia de que las constantes deben conjugarse al momento de salir del
producto interno. Debido a esta propiedad el producto interno no puede llamarse bilineal.
Sin embargo, esta propiedad es especial y no puede pasar desapercibida, de modo que
recibe un nombre especial. Una funcion g que cumple las propiedades (c) y (1.2) recibe el
nombre de sesquilineal.
Notaci
on. Si bien el producto interno es una funcion de dos argumentos, este se suele
denotar de una manera mas compacta. Si tenemos dos vectores |ai, y |bi entonces
denotaremos el producto interno g(|ai, |bi) como,
g((|ai, |bi) ha|bi,
lo que disminuye considerablemente la notacion. Sin embargo, es menester mencionar
que debemos tener cuidado al realizar operaciones de esta manera. Especificamente,
dado que el producto no es conmutativo y que el primer argumento es lineal bajo
conjugacion, entonces hay que tener en mente las siguientes reglas para nuestra nueva
notacion
Un escalar multiplicado por un vector |ai los podemos representar de dos
formas equivalentes,
|ai |ai.
El producto interno de un vector |ai por un vector |bi en dicho orden puede
representarse como,
g(|ai, |bi) ha|bi = ha|bi.
Dados 2 C y |ai, |bi 2 V, tenemos que el producto de |ai con |bi se representa
como
g(|ai, |bi) ha|bi = ha|bi.
Finalmente dados dos escalares , 2 C y tres vectores |ai, |bi, |ci 2 V, entonces
el producto de |ai + |bi con |ci se representa como
g(|ai + |bi, |ci) ha + b|ci = ha|ci +
hb|ci.
12
Espacios Vectoriales
Se puede pensar que la notacion adopata es en cierta forma equivalente al producto interno
definido de manera matricial: para multiplicar dos vectores columna, uno de estos se tiene
que trasponer y conjugar para que el producto matricial tenga sentido. De hecho, mas
adelante veremos que los vectores al reves ha| son entidades que tienen significado por
s mismos y que se pueden obtener como una operacion similar a la de la trasposicion
conjugada de matrices. En la practica, si debemos realizar operaciones entre dos vectores,
por ejemplo, del vector |ai + |bi con el vector |ci, entonces primero debemos trasponer
y conjugar el primer vector y luego multiplicarlo por el segundo con las reglas habituales.
El resultado de trasponer y conjugar el vector |ai + |bi es
ha| +
hb|,
hb|ci.
En adelante nos referiremos un vector de la forma |i como ket mientras que su traspuesto conjugado h| se denominara bra. Notese que en la operacion de producto arriba
ejemplificada, tenemos que un vector bra siempre se aparea con un vector ket para formar
un producto interno.
Ejemplo 1.2.1. Si el espacio vectorial es V = Cn , entonces dos vectores |ai, |bi
en Cn se representan como |ai = (1 , 2 , . . . , n ) y |bi = ( 1 , 2 , . . . , n ). Entonces, una
manera de definir el producto interno ha|bi es como sigue,
ha|bi := 1
1 + 2
2 + + n =
n
X
j j ,
j=1
el cual satisface las propiedades (a), (b) y (c) de la definicion 1.2.1. En particular si |ai =
|bi, entonces
n
X
ha|ai = |1 |2 + |2 |2 + + |n |2 =
|j |2 ,
j=1
el cual es positivo.
Producto Interno
13
Ejemplo 1.2.3. Sea C0 (a, b) el conjunto de todas las funciones complejas continuas
definidas en el intervalo real (a, b). Una manera de definir el producto interno en dicho
espacio vectorial es como sigue. Dadas dos funciones f, g 2 C0 (a, b), tenemos que
Z b
ha|bi :=
w(t)f (t)g(t)dt
a
siendo w una funcion de peso que, como se menciono anteriormente, es real y estrictamente
positiva en el intervalo (a,b).
1.2.2.
Ortogonalidad
El producto interno nos permite hacer una analoga directa con espacios vectoriales
cuya geometra es en cierto modo intuitiva. Uno concepto que es fundamental en geometra
analtica es el de perpedicularidad. En el espacio Rn decimos que dos vectores son perpendiculares si su producto punto es cero. En espacios vectoriales abstractos generalizamos
dicho concepto de una forma completamente analoga.
Definici
on 1.2.2. Dos vectores |ai, |bi 2 V de un espacio vectorial V son ortogonales o perpendiculares si ha|bi = 0. Un vector |ei es normal o esta normalizado si
he|ei = 1. Una base B = {|ej i}N
j=1 de un espacio vectorial N -dimensional VN se le llama
base ortonormal si
hei |ej i = i,j
donde
i,j
1 si i = j
i,j =
0 si i 6= j.
Ejemplo 1.2.4. La base estandar del espacio vectorial Rn (o aun del espacio
vectorial Cn )
|e1 i
|e2 i
|e3 i
|e1 i
:=
:=
:=
:=
(1, 0, 0, . . . , 0),
(0, 1, 0, . . . , 0),
(0, 0, 1, . . . , 0),
(0, 0, 0, . . . , 1),
(1.3)
14
Espacios Vectoriales
1.2.3.
k,l .
El procedimiento de Gram-Schmidt
Supongamos que tenemos un espacio vectorial V con una base que no es ortonormal.
En muchas ocasiones es deseable tener una base ortonormal para un espacio vectorial, por
lo que se hace necesario tener un procedimiento d mediante el cual podamos construir
una base auntenticamente ortonormal. Las razones para hacer eso son muy variadas pero
principalmente es porque, en la practica, muchos calculos se pueden simplificar enormemente como veremos mas adelante. El procedimiento mediante el cual podemos llevar,
de una manera sistematica, una base cualquiera a una base ortonormal es llamado el
procedimiento de Gram-Schmidt. El procedimiento mencionado tiene una descripcion
geometrica bastante intuitiva que, ademas, puede llevarse a un plano abstracto con la
:= {|a1 i, |a2 i, |a3 i, . . . , |an i}
definicion de producto interno en espacios vectoriales. Sea B
una base de un espacio vectorial de dimension n. Nuestro objetivo es construir, a partir
una base B = {|e1 i, |e2 i, |e3 i, . . . , |en i} que sea ortonormal. El
de los elementos de B,
primer vector de dicha base se puede construir de manera directa: tomese el vector |a1 i y
definase |e1 i de la siguiente forma
|a1 i
|a1 i
|e1 i := p
=
.
|a1 |
ha1 |a1 i
(1.4)
Esta operacion asegura que el primer vector de la base B es normal. Vamos ahora a
proceder inductivamente para definir los vectores subsecuentes. Considermos la proyeccion
del vector |a2 i sobre el vector |a1 i, la cual esta dada por el producto interno he1 |a2 i.
Para construir un vector que sea perpendicular a |e1 i podemos tomar |a2 i y sustraer
la componente que nos sobra a lo largo |e1 i. Un vector con tales caractersticas lo
escribimos como,
|e02 i = |a2 i he1 |a2 i|e1 i.
(1.5)
Unas cuantas operaciones nos muestran que, efectivamente, |e02 i es ortogonal con |e1 i.
Esto es,
he1 |e02 i = he1 |a2 i ha2 |e1 ihe1 |e1 i = 0.
Producto Interno
15
= |a3 i
2
X
j=1
(1.7)
Entonces, el siguiente vector de la base lo definimos como el vector |e3 i dividido entre su
magnitud,
|e0 i
|e3 i = p 03 0 .
(1.8)
he3 |e3 i
= |am i
m
X1
j=1
(1.9)
(1.10)
1.2.4.
La desigualdad de Schwarz
Una desigualdad que es frecuentemente encontrada en diferentes areas de las matematicas es la desigualdad conocida como la desigualdad de Cauchy-Schwarz. Originalmente esta desigualdad fue establecida para series (establecida por Augustin-Louis Cauchy
16
Espacios Vectoriales
en 1821) y mas tarde generalizada al caso de integrales (por Viktor Bunyakovsky en 1859
y Hermann Amandus Schwarz en 1888). Este resultado se puede establecer, sin embargo,
de manera general en espacios con producto interno.
Teorema 1.2.1. Cualquier par de vectores |ai, |bi de un espacio con producto
interno V, satisfacen la desigualdad de Schwarz,
|ha|bi|2 ha|aihb|bi.
(1.11)
ha|bi
|ai,
ha|ai
y notese que ha|ci = 0. Escribimos ahora a |bi en terminos de |ci despejando de la igualdad
anterior,
ha|bi
|bi = |ci +
|ai.
ha|ai
Si tomamos ahora el producto de |bi consigo mismo obtenemos,
hb|bi =
ha|bi
hc| +
ha|
ha|ai
ha|bi
|ci +
|ai
ha|ai
ha|bi
ha|bi
ha|bi
= hc|ci +
hc|ai +
ha|ci +
ha|ai.
ha|ai
ha|ai
ha|ai
Como |ai y |ci son ortogonales, es facil observar que,
hb|bi = hc|ci +
|ha|bi|2
.
ha|ai
Ahora, por la propiedad de producto interno que garantiza que el producto de un vector
consigo mismo es mayor o igual a cero, entonces tenemos que, en particular hc|ci
0.
Esta desigualdad implica que
|ha|bi|2
hb|bi
.
ha|ai
de donde se sigue automaticamente el resultado.
Espacios Normados
1.3.
17
Espacios Normados
Si tenemos la combinacion lineal de dos vectores, |ai + |bi, entonces la norma de dicha
combinacion lineal se denotara como ||a + b||.
Una norma en un espacio vectorial V verifica cumple las siguientes propiedades:
1. La norma del vector cero |0i es cero: ||0|| = 0.
2. ||a||
b|| .
(1.12)
Es facil mostrar que la distancia que hemos introducido satisface las tres propiedades que
definen una distancia. Sin embargo, tal como hemos visto anteriormente, no es necesario
definir un espacio lineal normado para definir un espacio metrico, pues existen maneras
diferentes de definir una distancia entre dos puntos. Mas a
un, en general no siempre es
posible dotar a un espacio de una estructura de espacio lineal normado (lo que requiere
18
Espacios Vectoriales
dotarlo inicialmente de una estructura de espacio vectorial). Por ejemplo, sabemos como
transformar S 2 R3 en un espacio metrico (usando la distancia usual o la distancia
definida como la longitud del arco del crculo mas grande que pasa por dos puntos), pero
no es posible dotar al crculo de una estructura de espacio vectorial.
Al igual que el caso anterior, podemos tambien mostrar una relacion similar entre
el producto interno y la norma en un espacio vectorial. Como hemos visto, un espacio
con producto interno es automaticamente un espacio lineal normado, pero el recproco no
es necesariamente cierto. Es decir, un espacio dotado de una norma no necesariamente
define un producto interno. Sin embargo, si la norma satisface la ley del paralelogramo,
||a + b||2 + ||a
1
||a + b||2
4
||a
b||2
i ||a + ib||2
||a
ib||2
que cumple con las propiedades de producto interno. De hecho, tenemos en general que,
Teorema 1.3.1. Un espacio lineal normado es un espacio con producto interno si
y solo si la norma satisface la ley del paralelogramo.
De hecho tenemos a
un mas. Si tenemos un espacio vectorial de dimension finita VN ,
siempre podemos definir una norma de la siguiente manera (sin necesidad de invocar el
producto interno). Si B = {|aj i}N
j=1 es cualquier base para VN , entonces para un vector
|ai 2 VN con desarrollo
N
X
|ai =
j |aj i,
j=1
N
X
j=1
|j |2 .
Es facil mostrar que esta norma cumple la ley del paralelogramo, por lo que en espacios
vectoriales de dimension finita. Entonces tenemos el siguiente resultado,
Teorema 1.3.2. Todo espacio vectorial de dimension finita es un espacio lineal
normado y ademas se puede transformar en un espacio de producto interno.
Espacios Normados
19
p
||a|| := ha|ai =
j=1
|j |2
!1/2
Esta norma define a su vez la distancia habitual entre dos vectores |ai = (1 , 2 , . . . , n )
y |bi( 1 , 2 , . . . , n ),
d(|ai, |bi) = ||a
p
b|| = ha
b|a
bi =
n
X
j=1
|j
j|
!1/2
Ejemplo 1.3.2. Una norma diferente que se puede definir en Cn esta dada por
||a||1 :=
n
X
j=1
|j |,
la cual satisface todas las propiedades de norma enunciadas anteriormente. Con esta
norma tenemos definida una distancia como sigue,
d(a, b) :=
n
X
j=1
|j
j |.
Ejemplo 1.3.3. Finalmente, uno puede generalizar las normas definidas anteriormente en una sola definicion. Si |ai = (1 , 2 , . . . , n ) 2 Cn entonces, dado un p 2 (0, 1)
definimos
!1/p
n
X
||a||p :=
|j |p
,
j=1
n
X
j=1
|j
j|
!1/p
20
Espacios Vectoriales
Captulo 2
Transformaciones Lineales:
Operadores en espacios vectoriales
Si deseamos estudiar fenomenos fsicos cuya descripcion tiene como base un espacio
vectorial, se hace imprescindible contar con herramientas matematicas adicionales. Por
ejemplo, si estudiamos el movimiento de un objeto en un espacio euclidiano, un vector
describe la posicion del objeto, otro mas la velocidad, otros mas la aceleracion y la fuerza y
as sucesivamente con mas cantidades fsicas. Estos vectores no permanecen estaticos, sino
que se cambian continuamente. Mas aun, una cantidad fsica (o mas de manera conjunta)
puede definir otra cantidad fsica cuando realizamos una operacion. Por ejemplo, la
posicion nos puede dar la velocidad del objeto bajo la operacion de derivada, o bien, la
integral de lnea de la fuerza a lo largo de una trayectoria nos define el trabajo. Esto
sugiere que los espacios vectoriales que hemos definido de forma abstracta deben dotarse
de operaciones para que los vectores puedan moverse de un espacio en otro, o de un
espacio en s mismo. Estas operaciones reciben el nombre generco de transformacion o
mapeo. Por supuesto, existen muchas clases de transformaciones, y en este captulo nos
enfocaremos en cierto tipo transformaciones que nos son de utilidad en la descripcion de
diversos fenomenos fsicos.
Ejemplo 2.0.4. He aqu algunos ejemplos de mapeos o transformaciones.
1. Sea f : R ! R dado por f (x) = x3 .
2. Sea g : R2 ! R dado por g(x, y) = x2 + y 2 + 4.
3. Sea F : R2 ! C dado por F (x, y) = x2 + 2 + i(x3 + y 5 + 1). En general si U, V :
R2 ! R, entonces F puede escribirse como F (x, y) = U (x, y) + iV (x, y).
21
22
Transformaciones Lineales
4. El movimiento de una partcula durante un intervalo de tiempo tambien es una
transformacion. Sea [a, b] el intervalo de tiempo en describiremos el movimiento
de un objeto en el espacio R3 . Entonces una funcion ~r : [a, b] ! R3 describe el
movimiento del objeto en cuestion. En este caso ~r(t) = (x(t), y(y), z(t)) se entiende
como la posicion del objeto como funcion del tiempo que se obtiene al resolver la
ecuacion de Newton correspondiente.
5. Sea T : R ! R2 dado por T (t) = (t, 3t).
2.1.
Transformaciones lineales
Transformaciones Lineales
23
cada espacio, son los mismos. Una consecuencia inmediata de la definicion anterior es la
siguiente,
Proposici
on 2.1.1. Dos transformaciones lineales T : V ! W y S : V ! W son
iguales si y solo si T|ai i = S|ai i para todos los vectores |ai i de alguna base B de V. De
esta forma, una transformacion lineal esta definida de manera u
nica si esta bien definida
su accion sobre los vectores de cualquier base del espacio dominio.
Demostracion. Si las transformaciones son iguales entonces esta claro que T|ai i = S|ai i
para todos los elementos |ai i de cualquier base B de V, por lo que la parte ()) esta
trivialmente demostrada. El regreso (() se demuestra como sigue. Sea B = {|aj i} una
base para V. Supongase ademas que la accion de T y S sobre cada vector de la base B
esta bien definida. Por definicion de base, tenemos que cualquier vector |ai 2 V se puede
escribir de manera u
nica como una combinacion lineal de los vectores de la base,
X
|ai =
j |aj i.
j
y que
S|ai =
X
j
j S|aj i.
Por hipotesis sabemos que T|ai i = S|ai i, por lo que podemos concluir que
T|ai = T|ai.
Como la igualdad anterior es valida para cualquier vector |ai 2 V se sigue que las trans es otra base, entonces cada vector de B
se puede
formaciones son identicas. Mas a
un, si B
escribir como combinacion lineal de elementos de B. Esto quiere decir que los vectores en
tienen la misma imagen bajo T y bajo S, por lo que un argumento similar al anterior
B
permite concluir la igualdad de T con S independientemente de la base en la que se hayan
definido la accion de dichas transformaciones.
24
Transformaciones Lineales
m
X
j=1
|aj ifj ,
Transformaciones Lineales
25
n
X
aj t j .
j=0
n
X
jaj tj 1 .
j=0
n
X
aj t j .
j=0
f (x)dx.
a
26
Transformaciones Lineales
Demostracion. Sean |ai, |bi 2 V tales que T|ai = |0i y T|bi = |0i. Es decir, tomamos dos
vectores del n
ucleo de V, i.e., |ai, |bi 2 ker(T) V. Notese que para cualesquiera , 2 C
tenemos que T (|ai + |bi) = T|ai + T|bi por linealidad de T. Por hipotesis tenemos
que tanto |ai como |bi tiene como imagen |0i 2 W bajo T. De este modo podemos ver
que T (|ai + |bi) = |0i, lo que nos permite concluir que |ai + |bi 2 ker(T) para
cualesquiera , 2 C. Esto implica que ker(T) es un subespacio.
Como ker(T) es un subespacio de V, este debe tener una dimension menor o como
mucho igual, a la dimension de V. La dimension de ker(T) es llamada nulidad de V. El
siguiente teorema nos muestra que todos los vectores que tienen una preimagen bajo T
es tambien un subespacio.
Teorema 2.1.2. El rango T(V) de una transformacion lineal T : V ! W es el
conjunto de todos los vectores en W que son imagen de alg
un vector en V bajo T. Entonces
T(V) es un subespacio. La dimension de T(V) se denomina rango de T.
La demostracion de este teorema y el siguiente se dejan como ejercicios para el
lector.
Teorema 2.1.3. Una transformacion lineal es inyectiva su y solo si su n
ucleo es
el vector cero, ker(T) = {0}.
Supongamos que tenemos un espacio vectorial V y una transformacion lineal T.
Puesto que ker(T) es un subespacio de V, podemos primero definir una base en ker(T)
y luego a
nadir vectores linealmente independientes hasta completar una base para V
que llamaremos B = {|a1 i, |a2 i, . . . , |an i}. Supongase que la dimension de ker(T) es m.
Entonces, sin perdida de generalidad podemos tomar los primeros m vectores de B como los vectores de la base para ker(T). Es facil mostrar que el conjunto de vectores
{T|am+1 i, T|am+2 i, . . . , T|an i} forma una base para T(V). Este resultado se recoge en el
siguiente,
Teorema 2.1.4 (Teorema de la dimension). Sea T : V ! W una transformacion
lineal. Entonces
dimV = dimker(T) + dimT(V).
Una consecuencia inmediata de este teorema es la siguiente,
Proposici
on 2.1.2. Un endomorfismo de un espacio vectorial de dimension finita
es biyectivo si se verifica cualquiera de estas dos propidades: o es inyectivo o es sobre.
Transformaciones Lineales
27
x4 , x1 + x2 + 2x3 + 2x4 , x1
x3
3x4 ).
y por lo tanto, cualquier vector (x1 , x2 , x3 , x4 ) tiene como imagen bajo T en R3 forzosamente una combinacion lineal de los vectores (1, 0, 1) y (0, 1, 1).
Como hemos visto hasta ahora a traves de varios ejemplos de espacios vectoriales,
muchos de estos espacios a primera vista lucen bastante diferentes, cuando en realidad
comparte mucho mas caractersticas de lo que podemos apreciar. Un ejemplo intuitivo
de esta situacion podra ser el espacio C con campo en los reales comparado con R2 con
campo en R. Aunque los vectores en estos dos espacios los denominamos con nombres diferentes e incluso los representamos en formas distintas, estos tienen bastantes similitudes
entre s. Por ejemplo, ambos son bi-dimensionales e incluso graficamente no atrevemos a
representar ambos espacios en la misma manera: como un plano cartesiano. Esta nocion
de similitud la podemos hacer mas precisa con la siguiente definicion.
28
Transformaciones Lineales
Definici
on 2.1.2. Un espacio vectorial V se dice que es isomorfo a otro espacio
vectorial W si existe un mapeo lineal biyectivo T : V ! W. En este caso T recibe el nombre
de isomorfismo. Un mapeo lineal biyectivo de V en s mismo se llama automorfismo
de V.
Para fines practicos podemos decir que dos espacios vectoriales isomorfos son en
realidad manifestaciones del mismo espacio vectorial. En el ejemplo que precede la
definicion anterior la correspondencia entre ambos espacio esta dada por T : C ! R2
definido como T(x + iy) = (x, y) el cual establece un isomorfismo entre ambos espacios.
Debemos enfatizar sin embargo que los espacios R2 y C son isomorfos u
nicamente como
espacios vectoriales. Si dotamos a estos espacios con otras estructuras entonces resultaran
ser bastante distintos. Por ejemplo, en C, se tiene una multiplicacion natural entre sus
elementos, mientras que R2 no la tiene. El siguiente teorema nos ofrece un criterio para
isomorfismos.
Teorema 2.1.5. Una transformacion lineal sobreyectiva T : V ! W es un isomorfismo si y solo si su nulidad es cero.
Otro teorema que tambien nos da informacion sobre los vectores transformados es
el siguiente.
Teorema 2.1.6. Un isomorfismo T : V ! W transforma un conjunto de vectores linealmente independientes en un conjunto de vectores que tambien es linealmente
independiente.
Demostracion. Supongamos que {|aj i}nj=1 V es un conjunto de vectores linealmente
independientes. Probemos el teorema por contradiccion. Entonces supongase que para el
conjunto de vectores {T|aj i}nj=1 existe un conjunto de escalares {j }nj=1 tales que
n
X
j=1
j T|aj i = |0i.
n
X
j=1
j |aj i
= |0i.
P
De esta u
ltima igualdad se desprende que nj=1 j |aj i = |0i porque T es un isomorfismo
(su nulidad es cero, o equivalentemente su n
ucleo consta u
nicamente del vector cero).
n
Esto contradice nuestra hipotesis inicial de que {|aj i}j=1 V es un conjunto de vectores
linealmente independientes, lo que prueba el teorema.
Transformaciones Lineales
29
El siguiente teorema nos muestra en cambio que la diversidad de espacios vectoriales de dimension finita esta bastante limitada.
Teorema 2.1.7. Dos espacios vectoriales de dimension finita son isomorfos si y
solo si poseen la misma dimension.
Demostracion. Sea {|aj i}nj=1 una base para V, siendo n la dimension de V. Sea T un
ismorfismo entre V y W y defnase los vectores en W como sigue |bj i = T|aj i para
j = 1, 2, . . . , n. Como T es un isomorfismo es claro que el conjunto de vectores BW :=
{|bj i}nj=1 W es linealmente independiente. Tenemos ahora que probar que BW es una
base para W. Si suponemos que span(BW ) 6= W entonces podemos decir que existe un
vector |bi linealmente independiente con todos los vectores de BW . Como T es biyectivo,
existe un |
ai 2 V tal que T|
ai = b Entonces,
n
X
j=1
j |bj i +
|bi =
6 |0i,
j T|aj i +
T|
ai =
6 |0i,
o lo que es lo mismo,
T
n
X
j=1
j |aj i +
|
ai
6= |0i.
j |aj i +
|
ai =
6 |0i.
pues su nulidad es cero. Esto es, sin embargo, una contradicion con el hecho de que B
forma una base para V. Por lo tanto BW es una base para W y consecuentemente su
dimension es n.
Para probar el reciproco supongamos que la dimension de ambos espacios es n.
Supongase ademas que BV := {|aj i}nj=1 y BV := {|bj i}nj=1 son bases de V y W respectivamente. Defnase una transformacion T como sigue: T|aj i = |bj i. Sabemos la accion de
T sobre los vectores de base es suficiente para definir completamente una transformacion
lineal. Es facil verificar que ademas T establece un isomorfismo entre V y W.
30
Transformaciones Lineales
Entonces, el teorema anterior tiene por consecuencia que cualquier espacio vectorial
real de dimension n es isomorfo a Rn , mientras que cualquier espacio vectorial complejo
de dimension n es isomorfo a Cn . De esta forma tenemos que, para fines practicos existen
solo dos tipos de espacios vectoriales de dimension finta n, Rn o Cn .
Un ejemplo de espacios isomorfos es el caso de los espacios vectoriales V y su correspondiente espacio dual V , es decir, el el espacio que consiste de todas las aplicaciones lineales en V es isomorfo con V mismo. Para ver que este es el caso consideremos un espacio vectorial de dimension finita N en el cual se ha definido una base
B := {|a1 i, |a2 i, . . . , |aN i}. Sea f un funcional lineal sobre V. Sabemos que, por definicion, un funcional lineal asocia a cada vector en V un escalar complejo. Mas a
un, sabemos
por la Proposicion 2.1.1 que una transformacion lineal esta bien definida si definimos su
accion sobre los vectores de base. Lo mismo es cierto para funcionales lineales por razones
obvias. Supongamos entonces que el funcional lineal f act
ua sobre los vectores de la base
B como sigue,
f |aj i = j ,
8 1 j N.
siendo un {1 , 2 , . . . , N } un cierto conjunto de escalares que es el resultado de la aplicacion de f sobre cada vector de base. La ecuacion anterior nos permite observar que el
conjunto de escalares {1 , 2 , . . . , N } define de manera u
nica al funcional lineal f . Pero
podemos hacer aun mas. Sabemos que un funcional lineal tambien puede ser visto como
un vector, pues V es un espacio vectorial. Esto quiere decir que debe existir una base de
tal manera que el funcional lineal f se escriba como una combinacion lineal de la base. La
base en cuestion se puede hallar de manera relativamente directa. Defnase el conjunto de
funcionales lineales {f1 , f2 , . . . , fN } de la siguiente manera,
f1 |a1 i = 1,
f2 |a1 i = 0,
..
.
fN |a1 i = 0,
f1 |a2 i = 0,
f2 |a2 i = 1,
,...,
,...,
f1 |aN i = 0,
f2 |aN i = 0,
fN |a2 i = 0,
,...,
fN |aN i = 1.
N
X
j=1
j |aj i,
Transformaciones Lineales
31
N
X
j=1
j j .
(2.1)
j=1
(2.2)
fa = 1 f1 + 2 f2 + + N
fN ,
(2.3)
y analogamente
siendo j la j-esima componente de |ai en la base B. Entonces, el producto interno ha|bi
entre dos vectores |ai, |bi esta dado por,
ha|bi := fa |bi =
n
X
j j ,
j=1
donde j es la j-esima componente de |bi en la base B. En este sentido podemos imaginar que el vector original |ai sufre una transformacion, a fin de poder aparearse
en producto interno con |bi. Nuestra declaracion puede hacerse precisa si definimos tal
transformacion como la asociacion de un vector en V con un funcional lineal tal como lo
establece la identidad 2.2, i.e., |ai 7! fa . Esta identificacion, sin embargo, no es suficiente
para definir el producto interno, pues aun falta una segunda operacion; la que conjuga las
componentes del vector original para dar lugar a fa definido en la igualdad 2.3. Estas dos
operaciones se pueden definir en una sola a traves de la definicion de la operacion de trasconjugacion, tambien llamada operacion de dualidad, que en esencia es la identificacion
del funcional lineal f con el vector bra ha|. Para ello introducimos la notacion
(|ai) := ha| = fa ,
32
Transformaciones Lineales
lo que nos permite interpretar a ha| como un vector del espacio dual V . Pasar de kets a
bras ya lo hemos especificado anteriormente cuando introdujimos el producto interno.
Conviene sin embargo recapitular las reglas. Para pasar de un ket |ai a su correspondiente
bra utilizamos la operacion de dualidad (o transconjugacion) usando el smbolo daga. Si
tenemos una combinacion lineal de vectores |ci = |ai + |bi, su correspondiente bra se
obtiene como sigue,
hc| := (|ai + |bi) = ha| + hb|.
Mas adelante veremos que las transformaciones lineales en un espacio vectorial no operan
identicamente sobre vectores ket y bra, salvo en una gran excepcion que mas adelante
analizaremos.
2.2.
Algebra
de Operadores
2.2.1.
Algebras
En esta seccion revisaremos algunos conceptos elementales de las algebras. Las estructuras conocidas como algebras son abundantes en fsica, pues involucran una operacion de multiplicacion entre elementos de un espacio determinado que dan como resultado
un elemento del espacio en cuestion. Por citar un ejemplo, un producto entre vectores define lo que conocemos como momento angular que es, a su vez, un (pseudo) vector. El
algebra que se define naturalmente entre operadores es de particular utilidad especialmente en mecanica cuantica.
Algebra
de Operadores
33
Definici
on 2.2.1. Un lgebra A sobre C (o sobre R) es un espacio vectorial V sobre
C (o sobre R) dotado de una operacion binaria : V V ! V, llamada multiplicaci
on.
Si a, b 2 A son dos vectores 1 entonces la multiplicacion entre estos se denota como
(a, b) = ab, y dicha operacion satisface
a( b + c) = ab + ac,
y
( b + c)a = ba + ca,
para cualesquiera tres vectores a, b, c 2 A y cualesquiera escalares , , 2 C. La dimension del espacio vectorial recibe en este caso el nombre es dimensi
on del
algebra.
Un algebra se llama asociativa si la multiplicacion satisface a(bc) = abc y se llama
conmutativa si ab = ba. Un algebra con identidad es un algebra con un elemento 1 tal
que 1a = a1 = a. Un elemento b se llama inversa izquierda de a si ba = 1, y se
denomina inversa derecha de a si ab = 1.
Ejemplo 2.2.1. Defnase el siguente producto de vectores en R2 : si (x1 , x2 ), (y1 , y2 ) 2
R son dos vectores en el plano, definimos un tercer vector a traves de su multiplicacion
como,
2
x2 y2 , x1 y2 + x2 y1)
Queda al lector la tarea de mostrar que efectivamente este producto define un algebra
conmutativa en R2 .
Ejemplo 2.2.2. El producto cruz en R3 definido en la va usual tambien define
un algebra. Si dos vectores (x1 , x2 , x3 ), (y1 , y2 , y3 ) 2 R3 entonces definimos un tercer vector
como resultado de la multiplicacion (llamado producto cruz) de dichos vectores como
sigue,
(x1 , x2 , x3 ) (y1 , y2 , y3 ) := (x2 y3
y 2 x 3 , x3 y 1
x 1 y 3 , x1 y 2
y1 x2 ).
En esta definici
on usamos letras en negrita (boldface) para denotar vectores con estructura de
algerbra.
34
2.2.2.
Transformaciones Lineales
El
algebra L(V)
Algebra
de Operadores
35
para todo |ai 2 V. Pero usando la propiedad (c) de la definicion de producto interno
(positividad definida, cf. Definicion 1.2.1) tenemos que la u
nica posibilidad para el vector
|Tai es que sea el vector cero, i.e., |Tai = |0i para todo |ai 2 V. Esto nos deja claro que
T debe ser la transformacion cero 0 para que esto u
ltimo tenga sentido.
De hecho, el criterio para comprobar que un operador coincide con el operador cero
se puede hacer aun mas fuerte.
Teorema 2.2.2. Un operador lineal T en un espacio con producto interno V es el
operador 0 si y solo si ha|T|ai = 0 para todo |ai 2 V.
Demostracion. Por supuesto, la parte facil de la desmostracion es clara: si T = 0 entonces
ha|T|ai = 0 para todo |ai 2 V. Lo que nos resta es mostrar el recproco. Supongamos
pues que ha|T|ai = 0 para todo |ai 2 V. Tomese a |ai como
|ai = |bi + |ci,
para cualesquiera vectores |bi, |ci 2 V y cualesquiera escalares ,
2 C, y notese que
hb|T|ci +
hc|T|bi = h b + c|T| b + ci
| |2 hb|T|bi
| |2 hc|T|ci.
Por hipotesis tenemos que el lado derecho de la ecuacion anterior debe ser identico con
cero. Por tanto se tiene que
hb|T|ci +
hc|T|bi = 0.
36
Transformaciones Lineales
Los dos teoremas anteriores nos permiten decidir si dos operadores lineales son
identicos entre s. La manera de hacerlo es tomar la diferencia de dichos operadores y
mostrar que es identico al operador cero usando alguno de los criterios arriba enunciados. Ademas de la transformacion cero 0, en el algebra L(V) tenemos presente tambien la
transformacion identidad, la cual esta definida como la transformacion lineal (que denotaremos por 1) que deja invariante cualquier vector en el espacio vectorial V, i.e., 1|ai = |ai
para todo |ai 2 V. Como tenemos el elemento identidad en el espacio L(V) conviene
preguntarse si este juega el papel del elemento identidad en el sentido de algebra. Es decir,
nos preguntamos si para una transformacion lineal T existe una transformacion T 1 tal
que TT 1 = 1. De hecho, solo los las transformaciones lineales biyectivas tienen inversas
en el sentido arriba expuesto. Podemos entonces decir que L(V) es un algebra asociativa
con identidad no necesariamente conmutativa ( TS generalmente no es igual a ST).
Un resultado que se desprende de los teoremas arriba enunciados nos arroja algunas
propiedades de las inversas de los operadores lineales.
Teorema 2.2.3. La inversa de un operador lineal es u
nica. Si T y S son dos
operadores invertibles entonces TS es invertible y ademas (TS) 1 = S 1 T 1 . Un endomorfismo T : V ! V es invertible si y solo si transforma los vectores de una base en V
en otra base para el mismo espacio.
Ejemplo 2.2.4. La transformacion lineal T : R3 ! R3 definida como,
T(x1 , x2 , x3 ) := (x1 + x2 , x2 + x3 , x3 + x1 ),
es invertible, ya que la u
nica solucion del sistema,
x1 + x2 = 0
x2 + x3 = 0
x3 + x1 = 0
es x1 = x2 = x3 = 0. Entonces es claro que ker(T) = {(0, 0, 0)} y por el Teorema 2.1.5
tenemos que T es una biyecccion. Entonces tenemos que T debe tener una inversa, la
cual deseamos calcular. Para este proposito necesitamos hallar una transformacion T 1
tal que T 1 T(x1 , x2 , x3 ) = (x1 , x2 , x3 ), o bien,
(x1 , x2 , x3 ) = T 1 (x1 + x2 , x2 + x3 , x3 + x1 ).
Si ahora definimos el vector (y1 , y2 , y3 ) cuyas componentes estan dadas por,
y1 = x1 + x2 ,
y2 = x2 + x3 ,
y3 := x3 + x1 ,
(2.4)
Operadores Lineales
37
2.3.
Operadores Lineales
2.3.1.
Conjugaci
on de Operadores
Definici
on 2.3.1. Sea T 2 L(V) y sea |ai, |bi 2 V. Definimos el operador
conjugado (o adjunto) de T como un operador T tal que
ha|T|bi = hb|T |ai.
Notese que, de la definicion anterior podemos obtener una regla sencilla para identificar el operador conjugado. Ya que podemos escribir ha|T|bi = ha|Tbi = hTb|ai,
entonces podemos darnos cuenta que
hTb|ai = hb|T |ai,
38
Transformaciones Lineales
(2.5)
Este resultado nos indica que, si tomamos el vector congujado que se obtiene de una
transformacion lineal, es lo mismo que tomar el operador conjugado a T y hacerlo operar
hacia la izquierda sobre el bra correspondiente. Los operadores T y T son operadores
de la misma naturaleza y vamos a admitir que puedan ambos puedan operar tanto a la
derecha como hacia la izquierda usando la operacion de conjugacion.
El siguiente teorema no brinda algunas propiedades de la operacion de conjugacion
sobre operadores compuestos.
Teorema 2.3.1. Sean T, U 2 L(V) y sea 2 C. Entonces,
i. (T + U) = T + U ,
ii. (UT) = T U ,
iii. (T) = T ,
iv. (T ) = T.
Hay que hacer enfasis en que la u
ltima identidad solo es valida en espacios vectoriales
de dimension finita; en sistemas de dimension infinita puede no ser cierta.
Demostracion.
i. Notese que ha| (T + U) |bi se puede escribir como,
ha| (T + U) |bi = ha|T|bi + ha|U|bi,
lo que nos dice que
ha| (T + U) |bi = ha|T|bi + ha|U|bi = hb|T |ai + hb|U |ai = hb| T + U |ai.
lo que muestra efectivamente que
(T + U) = T + U
Operadores Lineales
39
Ejemplo 2.3.1. Vamos ahora a calcular la transformacion conjugada a la transformacion T : C ! C definida como
0
1 0
1
1
1 i2 + 3
A,
i1 3
T @ 2 A = @
3
1 2 + i3
donde los escalares j son las componentes del vector |ai sobre el que act
ua el operador T.
Vamos tambien a introducir el vector |bi con componentes j , con lo cual, ambos vectores
se escribe como,
0
1
0
1
1
1
|ai := @ 2 A ,
|bi := @ 2 A .
3
3
40
Transformaciones Lineales
Los correspondientes vectores duales ha| y hb| se representan como vectores reglon,
ha| = (1 , 2 , 3 ),
1,
hb| = (
2,
3 ).
i +
=
=
1,
2,
(1
@
3)
A
i1 3
1 2 + i3
i2 + 3 ) +
(i1
3 ) +
(1
= 1 1 i2 1 + 3 1 + i1 2 3 2 + 1
= 1 1 + i2 1 + 3 1 i1 2 3 2 + 1 3
2 + i3 )
2
2
+ i3
i3 3
(2.6)
3)
+ 2 (i
3)
+ 3 (
3
2
i 3)
A.
Como el resultado anterio vale para cualquier |ai 2 C3 tenemos que el operador conjugado
act
ua sobre |bi como sigue,
0
1 0
1
i 2+ 3
1
1
A.
i 1
T @ 2 A = @
3
i 3
3
1
2
2.3.2.
Operadores Lineales
41
1
1
T + T +
T
2
2
T = H + A.
42
Transformaciones Lineales
operador anti-hermitiano, entonces iA resulta ser un operador hermitiano. Si llamamos H0 := iA entonces podemos darnos cuenta que un operador T cualquiera puede
escribirse como,
T = H + iH0
siendo H y H0 ambos hermitianos. La analoga es ahora precisa en el sentido de que
tambien un n
umero complejo puede escribirse como z = x + iy, siendo x, y n
umeros
reales.
A
un cuando un operador arbitrario puede descomponerse en una parte real y una
imaginaria, de manera completamente paralela a los n
umeros complejos, la correspondencia entre ambos objetos no es del todo analoga. Por ejemplo, sabemos que el producto
de dos n
umeros reales debe ser un n
umero real. Sin embargo, en el caso de operadores,
el producto de dos operadores autoconjugados no es necesariamente un operador autoconjugado. Esto se debe esencialmente a que la multiplicacion entre operadores no es
conmutativa. Si H y K son hermitianos, entonces,
(HK) = K H = KH 6= HK.
Hasta aqui hemos analizado las propiedades de los operadores bajo conjugacion.
Vamos ahora a establecer uno resultados en torno a su relacion con los valores esperados.
Teorema 2.3.2. Un operador lineal H es un operador hermitiano si y solo si
ha|H|ai es real para cualquier vector |ai.
Demostracion. Si tomamos como hipotesis el hecho de que H es hermitiano, entonces es
claro, por mera definicion de hermiticidad, que
ha|H|ai = ha|H |ai = ha|H|ai ,
lo que implica que ha|H|ai es real. Analicemos el recproco. Si asumimos que ha|H|ai es
real para cualquier vector |ai, entonces podemos ver que
ha|H|ai = ha|H|ai = ha|H |ai
lo cual implica que
ha|H
H |ai = 0
para todo vector |ai. Por el Teorema 2.2.2 se sigue inmediatamente que H
lo tanto H es hermtico.
H = 0. Por
Operadores Lineales
43
0
i
H :=
.
i 0
Tomemos un vector arbitrario |ai con componentes arbitrarias,
1
|ai =
,
2
y notese que
ha|H|ai =
(1 , 2 )
(1 , 2 )
0
i
i
0
1
2
i2
= i1 2 + i2 1
i1
i1 2 + ( i2 1 ) = 2Re( i1 2 ),
(2.7)
0
i
ha|H = (1 , 2 )
= (i2 , i1 )
i 0
Mientras que el operador hHa| es el operador que indica que primero hay que hacer
la operacion |Hai y luego trasconjugar el vector (i.e., encontrar su correspondiente bra):
0
i
1
i2
H|ai = |Hai =
=
.
i 0
2
i1
Entonces el bra hHa| se escribe como
hHa| = (i2 , i1 )
44
Transformaciones Lineales
Podemos ver en este ejemplo que un operador hermitiano puede introducirse tanto en
el ket como en el bra, sin ninguna operacion adicional. No obstante, en el caso en que
tenemos operadores que no son autoconjugados, este no es el caso.
Ejemplo 2.3.3. Para contrastar con el caso de los operadores hermitianos, vamos a
analizar algunas operaciones con operadores que no posean la propiedad de hermiticidad.
Consideremos el mismo espacio vectorial que en el ejemplo anterior y consideremos ahora
una matriz T definida como
0 i
T=
i 0
Podemos ver que si tomamos un vector arbitrario |ai, entonces
0 i
1
i2
ha|T|ai = (1 , 2 )
= (1 , 2 )
,
i 0
2
i1
lo que implica que
ha|T|ai = i1 2
(i1 2 ) = 2iIm(i1 2 ).
i2
T|ai = |Tai =
,
i1
y por consecuencia es claro que
hTa| = ( i2 , i1 ).
Por otro lado tenemos que
ha|T =
(1 , 2 )
0 i
i 0
= (i2 , i1 ),
de donde podemos observar que ha|T 6= hT a|. Sin embargo observemos que ha|T =
(T|ai) y por lo tanto
i2
ha|T = (T|ai) =
= ( i2 , i1 ),
i1
Lo que implica que ha|T = hTa|. Esto es consistente con nuestra regla de que lo operadores se pueden meter en los vectores bra previamente conjugados. Hay que poner especial
atencion en el hecho de que las operaciones matriciales hacia la derecha e izquierda son
compatibles con nuestras reglar de operacion.
2.4.
45
Representaci
on Matricial de Operadores
Hasta ahora hemos visto que los espacios vectoriales tienen propiedades muy similares entre s en incluso entre espacios generados por transformaciones lineales sobre
estos. Por ejemplo, si tenemos el espacio vectorial que consiste de los polinomios de grado
n 1 con coeficiente complejos PnC 1 [t], entonces sabemos que este es isomorfo al espacio
vectorial Cn . Si consideramos entonces transformaciones lineales en Cn es claro que estas
pueden ser representadas como matrices. Como PnC 1 [t] es isomorfo a Cn esperaramos que
sus correspondientes espacios de transformaciones lineales tambien sean similares entre
s o incluso, isomorfos. De hecho, esto es cierto, pues siempre podemos establecer un isomorfismo por la sencilla razon de que todos los espacios PnC 1 , Cn , L(Cn ) y L(PnC 1 ) tienen
exactamente la misma dimension, lo que es suficiente para establecer un isomorfismo entre
ellos. Si es as, entonces debe ser cierto que transformaciones entre polinomios o incluso
transformaciones entre funciones tenga una representacion matricial va un isomorfismo.
Incluso los vectores mismos tendran una representacion como vectores columna, independientemente del espacio que se trate. En esta seccion nos dedicaremos a establecer la
reglas operativas para este fin.
2.4.1.
Matrices
n
X
j=1
j |aj i.
Si bien esta representacion explicita como combinacion lineal de vectores de base es de mucha utilidad, podemos ir mas alla y considerar representaciones alternativas. Una notacion
que muchas veces resulta conveniente es representar al vector |xi como una combinacion
lineal simbolica de la siguiente forma. Como podemos darnos cuenta, dada una base en
el espacio vectorial, un vector esta definido por un u
nico conjunto de escalares, en este
n
caso denotados como {j }j=1 . Escribir la representacion como suma o como conjunto solo
difiere en el orden en el que se encuentran los ecalares; de hecho, una sola permutacion
de los escalares dado nos arrojara, el caso general, un vector diferente. Entonces podemos explicitamente imponer un orden en el conjunto de escalares. Esta convencion nos
lleva al concepto de vector columna que es la representacion que buscamos. Si x es la
46
Transformaciones Lineales
representacion simbolica del vector |xi en la base BV tendremos que x se escribe como,
0
1
1
B 2 C
B
C
x := B .. C ,
@ . A
n
n
X
j=1
j |
aj i.
No obstante, debe notarse que es ahora el conjunto de escalares {j }nj=1 el que define al
vector |xi pero en la base x
,
0
1
1
B C
B 2 C
x
:= B . C .
@ .. A
n
Es claro que x
y x son representaciones diferentes del mismo vector. Que ambas representaciones sean distintas se debe esencialmente a la base utilizada y es por eso que en
muchos casos se debe especificar la base utilizada, especialmente cuando se trabaja en
mas de una base. Dicho de otra forma, un espacio vectorial abstracto V es isomorfo a
diferentes espacios vectoriales de la forma Cn .
No solo los vectores se pueden representar como arreglos ordenados (vectores columna) sino tambien las transformaciones lineales mismas. Supongamos que una transformacion lineal T tiene como dominio el espacio vectorial V mientras que su imagen se
encuentra en el espacio vectorial W. Supongamos que BV = {|aj i}nj=1 es una base de V y
que BW = {|bj i}m
as que los vectores de la base BV
j=1 es una base en W. Supongamos adem
se transforman en los vectores |wj i := T|aj i para 1 j n. Estos vectores pertenecen
al espacio W y por lo tanto pueden descomponerse como combinaciones lineales de los
vectores de la base BW . Dichas combinaciones lineales se pueden ver como,
|w1 i =
m
X
j=1
j1 |bj i,
|w2 i =
m
X
j=1
j2 |bj i,
...,
|wn i =
m
X
j=1
jn |bj i.
47
Los vectores arriba definidos tienen a su vez una representacion como vectores columna,
0
B
B
w1 = B
@
11
21
..
.
m1
C
C
C,
A
12
22
..
.
B
B
w2 = B
@
m2
C
C
C,
A
B
B
wn = B
@
...,
1n
2n
..
.
mn
C
C
C.
A
Entonces, como una transformacion lineal esta bien definida si se define la accion sobre los
vectores de base, entonces podemos decir que la coleccion de las imagenes de los vectores
de base en su representacion como vectores columna, definen la transformacion en el
espacio de los vectores columna. En otras palabras, cuando realizamos la representacion
de vectores abstractos en vectores del espacio euclideano Cn , la transformacion en el
espacio abstracto tiene una transformacion equivalente (o isomorfa) en el espacio Cn ,
la cual tiene exactamente el mismo efecto sobre los correspondientes vectores. Entonces
podemos pensar que la transformacion equivalente mencionada arriaba no puede ser mas
que una matriz, que es como se representan las transformaciones lineales en el espacio Cn .
Dicha matriz debera corresponder a la coleccion de los vectores columna que resultan de
la imagen de los vectores de base. Por tanto, la representation de la transformacion lineal
T debera corresponder a la matriz A definida como,
0
B
B
A=B
@
11
21
..
.
12
22
...
...
...
1n
2n
..
.
m1 m2 . . .
mn
C
C
C.
A
j |aj i,
n
X
j=1
j T|aj i =
n X
m
X
j=1 k=1
j kj |bk i =
m
n
X
X
k=1
j=1
j kj
|bk i.
48
Transformaciones Lineales
escribirse como,
0 Pn
j=1 j 1j
B Pn j 2j
j=1
B
y=B
..
@
Pn .
j=1 j mj
C B
C B
C=B
A @
11
21
..
.
12
22
...
...
..
.
1n
2n
..
.
m1 m2 . . .
mn
10
CB
CB
CB
A@
1
2
..
.
n
C
C
C = Ax.
A
Esto nos dice que, esencialmente, la transformacion lineal T, representada por la matriz
A, act
ua sobre el vector |xi exactamente como act
ua la matriz A multiplicando al vector
columna x, que representa al vector abstracto |xi. En notacion puramente matricial, la
transformacion lineal a la que hemos hecho referencia puede escribirse como,
0
1 0
10
1
1
11 12 . . . 1n
1
B 2 C B 21 22 . . . 2n C B 2 C
B
C B
CB
C
B .. C = B ..
.. C B .. C
.
.
@ . A @ .
.
. A@ . A
m
m1 m2 . . . mn
n
o bien, usando una representacion compacta podemos escribir y = Ax.
x2 , 2x1 + 3x2 ).
Es claro que una transformacion lineal entre estos espacios vectoriales se suele denotar como una matrz. Dicha matriz se puede identificar facilmente, si escribimos la transformaion
T como un sistema de ecuaciones,
z 1 = x1 + x2 ,
z 2 = x1 x2 ,
z3 = 2x1 + 3x2 ,
siendo z1 , z2 y z3 las componentes de T. Entonces por simple inspeccion nos damos cuenta
que el sistema de ecuaciones mostrado arriba se escribe, en forma matricial como,
0
1 0
1
z1
1 1
x1
@
A
@
A
z2
1
1
T(x1 , x2 ) =
=
.
x2
z3
2 3
49
De esta forma, podemos decir que la transformacion lineal T tiene una respresentacion
matricial A dada por,
0
1
1 1
1 A,
A=@ 1
2 3
en las bases canonicas de R2 y R3 .
1
1
a1 =
, a2 =
,
1
1
y en la base canonica de R3 .
El primer paso consiste en obtener la accion de T sobre cada vector de la base,
T(1, 1) = (2, 0, 5),
T( 1, 1) = (0, 2, 1).
Una vez obtenidos estos vectores, los debemos escribir como combinacion lineal
base del espacio imagen. Como trabajamos en la base canonica de R3 esta es una
relativamente directa,
0 1
0 1
0 1
0 1
0 1
0
1
0
0
1
0
T(1, 1) = 2 @ 0 A +0 @ 1 A +5 @ 0 A , T( 1, 1) = 0 @ 0 A 2 @ 1 A +1 @
0
0
1
0
0
de la
tarea
1
0
0 A,
1
T( 1, 1) = 0e1
2e2 + 1e3
50
Transformaciones Lineales
Los coeficientes de las combinaciones lineales son lo que en s mismos son los que definen
de la transformacion lineal T,
la representacion matricial A
0
1
0
2 A
1
2
=@ 0
A
5
x
y
1
@
1
Av =
2
1
0
1
1
x+y
x
1 A
= @ x y A,
y
3
2x + 3y
(2.8)
al vector v obtendremos,
mientras que si aplicamos la matriz A
0
@
0
Av =
5
1
0
1
0
x
x
2 A
2y A ,
=@
y
1
5x + y
(2.9)
x
y
x
y
= xe1 + ye2 = x
B(R2 )
= xa1 + ya2 = x
B2
1
0
1
1
+y
+y
0
1
1
1
vectores que, por supuesto, arrojan resultados diferentes cuando se introducen en la misma
2.4.2.
51
Cambio de Base
En muchas ocasiones describir un problema fsico en una base particular puede ser
ventajoso debido a que este puede tomar una forma mas simple. Sin embargo, la solucion
en la base original puede ser de importancia, por lo que la descripcion de un problema
concreto se debe conocer en mas de una base a la vez. No solo la descripcion misma es
importante sino la manera de ir de una base a otra es, en muchas ocasiones, requerida.
Dada una base B := {|aj i}nj=1 podemos escribir un vector dado |ai de manera u
nica
como combinacion lineal de los elementos de la base,
|ai =
n
X
j=1
j |aj i,
y sustituyamos esta expresion en la combinacion lineal del vector |ai en la base B. Podemos
ver entonces que,
!
n
n
n
n
X
X
X
X
|ai =
j
kj |a0k i =
j kj |a0k i.
j=1
k=1
k=1
j=1
Si denotamos por j la j-esima componente del vector |ai en la base B 0 , entonces podemos
darnos cuenta que la relacion entre las componentes de la base original y la base nueva
esta dada por,
n
X
0
j =
kj j ,
para cada 1 j n.
j=1
a0 = Ra
52
Transformaciones Lineales
n
X
j=1
j |ej i.
Si deseamos pasar el vector |ai a otra base ortonormal B 0 := {|e0j i}nj=1 necesitamos expresar cada vector |ej i como combinacion lineal de elementos de la base B 0 . Esto se escribe
como,
n
X
|ej i =
kj |e0k i,
k=1
Hasta aqu la historia es completamente identica para cualquier par de base independientemente de si son ortonormales o no. Sin embargo, cuando las bases son ortonormales
53
podemos expresar explcitamente los elementos de la transformacion entre las bases. Notese que, gracias a la ortonormalidad, tenemos que,
he0i |ej i =
n
X
k=1
kj he0i |e0k i = ij ,
1
ij
1
ij
ij