Sie sind auf Seite 1von 15

Guı́a de estudio de álgebra matricial y

uso del sı́mbolo de Levi-Civita


Pı́o J. Arias
March 13, 2018

1 Matrices
1.1 Definición y operaciones
Una matriz de dimensión m × n sobre un conjunto K es una función A del conjunto de los pares
de enteros (i, j), 1 ≤ i ≤ m, 1 ≤ j ≤ n, en el conjunto K. Los elementos de la matriz A son
A(i, j) ≡ Aij y se representan usualmente como un arreglo rectangular con m filas y n columnas.
Los elementos de las matrices que se usan en distintos cálculos fı́sicos tienen la particularidad
que sus elementos, por ser magnitudes fı́sicas, tienen todos las mismas unidades. Por ejemplo una
matriz que se usa en mecánica clásica, conocida como el tensor de inercia, sus elementos tienen
unidades M L2 . Igualmente los vectores en dimensión D pueden representarse por sus componentes
en una base dada como una matriz 1 × D (tipo fila) o como una matriz D × 1 (tipo columna), en
cuyo caso los elementos tendrán las unidades de las respectivas componentes.
La suma de matrices de iguales dimensiones, cuyos elementos tengan las mismas unidades, se
define como
(A + B)ij = Aij + Bij , (1)
y el producto de un escalar por una matriz

(λA)ij = λAij . (2)

Entendiéndose que las unidades de los elementos de la matriz resultante pudieran cambiar si el
escalar tiene unidades.
La mutiplicación de una matriz A, m × n por otra matriz B, n × r, da como resultado una
matriz m × r, cuyos elementos son
n
X
(AB)ij = Aik Bkj . (3)
k=1

Este elemento ij de la matriz producto se puede visualizar como el producto de una matriz 1 × n
(la fila i de A) por una matriz n × 1 (la columna j de B). Las unidades de los elementos de la
matriz producto son el producto de las unidades de los factores.
La suma y multiplicación de matrices satisfacen las propiedades A(B+C) = AB+AC (propiedad
distributiva del producto respecto a la suma de matrices), A(BC) = (AB)C (propiedad asociativa

1
del producto), entendiéndose que A, B y C tienen las dimensiones apropiadas, y sus elementos las
unidades apropiadas, para la realización de las operaciones. El producto de matrices en general no
es conmutativo.

1.2 La matriz identidad y el sı́mbolo delta de Kronecker


El producto de matrices cuadradas (n×n), tiene un elemento neutro (unidad) para la multiplicación.
Esta matriz se conoce como la matriz identidad, 1n×n cuyos elementos no nulos estan en su diagonal∗
y valen 1
 
 1 0 ··· ··· 0 
 
 .. 

 0 1 0 ··· .  
 
1=
 .. .. .
.. 

 . 0 . . (4)
 
 .. .. . . . .. 


 . . . 
 
 
0 ··· ··· 0 1
Sus elementos se pueden expresar de forma compacta como


 1 si i = j

1ij ≡ δij = . (5)

 0 si i 6= j

donde hemos introducido el sı́mbolo delta de Kronecker, δij , cuyos valores para un par de enteros
ij están en correspondencia con los elementos ij de la matriz identidad.
Por su definición la matriz identidad satisface que A1 = 1A = A. Dicha expresión, en compo-
nentes se expresa como
n
(1A)ij =
X
Aik δkj = Aij ,
k=1
n
(A1)ij =
X
δik Akj = Aij , (6)
k=1

Dichas relaciones nos dan una guı́a de como manipular expresiones donde aparezca la delta de
Kronecker.
En el caso del producto entre matrices de dimensiones generales, la matriz identidad tambien
corresponde a un elemento neutro. Ası́ para Bn×m y Cr×n , sucede que 1n×n Bn×m = Bn×m y
Cr×n 1n×n = Cr×n .

1.3 Matriz traspuesta


Dada una matriz A, se puede obtener su matriz traspuesta, At , si intercambiamos sus filas con sus
colummnas. De esta forma si A es n × m, At será m × n, y Atij = Aji . Si la matriz es cuadrada,

La diagonal de una matriz A, n × n, corresponde a los elementos Aii con 1 ≤ i ≤ n.
resulta que tanto ella como su traspuesta tienen la misma dimensión. Sin embargo no tienen por
que ser iguales. Cuando una matriz es igual a su traspuesta diremos que es una matriz simétrica.
Ésta propiedad sólo la pueden satisfacer las matrices cuadradas

A, n × n, es simétrica si At = A es decir, Aij = Aji (7)

Cuando, en cambio, una matriz cambia de signo al trasponerla diremos que la matriz es anti-
simétrica

A, n × n, es antisimétrica si At = −A es decir, Aij = −Aji (8)

Es inmediato probar que si calculamos la matriz traspuesta de un producto de matrices, dicho


producto es igual al producto de las matrices traspuestas en orden inverso al que tenı́an en el
producto original
(AB)t = B t At . (9)

Pn esto, notamos que si A en m × n y B es n × r, el elemento ij del producto es (AB)ij =


Para
Pk=1 Aik Bkj el P
cual al trasponer corresponderá al elemento ji de la traspuesta. Reescribimos
n n t t t t t
k=1 Aik Bkj = k=1 Bjk Aki = ((AB) )ji (= (B A )ji ), que corresponde a lo afirmado. De forma
análoga éste resultado se generaliza para el producto de mas de 2 matrices, por ejemplo (ABC)t =
C t B t At .

1.4 Determinante de una matriz cuadrada


Una matriz cuadrada, A, además de representarse como un arreglo cuadrado n × n, puede también
representarse en función de sus filas. En este sentido la matriz A la pensamos como A = (α1 , α2 , α3 , · · · , αn ),
donde αi corresponde a una matriz 1 × n que representa a la fila i. Por ejemplo para la matris 2 × 2
 
 A11 A12 
A=


 (10)
A21 A22

la representación en función de sus filas será A = (α1 , α2 ), con α1 = (A11 , A12 ) y α2 = (A21 , A22 ).
Otro ejemplo mas explı́cito con una matriz 3 × 3, si B
 
 0 1 2 
 
 
B=
 −1 1 2

 (11)
 
 
1 0 −1

su representación como función de sus filas será B = (α1 , α2 , α3 ), con α1 = (0, 1, 2), α2 = (−1, 1, 2)
y α3 = (1, 0, −1). En particular para la matriz identidad llamamos a cada una de sus filas εi , asi
1n×n = (ε1 , ε2 , · · · , εn ), donde la fila i tiene ceros en las entradas distintas a la columna i, donde
toma el valor 1. Los elementos de esta fila 1 × n pueden escribirse como (εi )1j = δij . Por ejemplo,
representamos la matriz identidad 3 × 3

13×3 = (ε1 , ε2 , ε3 ), (12)


con ε1 = (1, 0, 0), ε2 = (0, 1, 0) y ε3 = (0, 0, 1).
Pasamos ahora a la introducción del determinante de una matriz cuadrada n × n. En este
sentido, dada una matriz A, n × n, puede verse que existe una única función de A, llamada el
determinante de A o detA que satisface las siguientes condiciones:
• detA = 1 si A = 1n×n
• detA = 0 si tiene una fila repetida
• Si representamos a A como función de sus filas detA es una función lineal en cada una de sus
filas. En este sentido
det(α1 , α2 , · · · , λαi + αi0 , · · · , αn ) = λdet(α1 , α2 , · · · , αi , · · · , αn )
+det(α1 , α2 , · · · , αi0 , · · · , αn ) (13)

• Si representamos la matriz A como función de sus filas entonces la función determinante es


una función alternante, es decir, cambia de signo si intercambiamos dos filas
det(· · · , αi , · · · , αj , · · · ) = −det(· · · , αj , · · · , αi , · · · ) (14)

Estas propiedades del determinante nos permiten reescribir el determinante de una matriz en
función de determinantes de matrices cuyas filas correspondan a filas de la matriz identidad. De
hecho, si αi es la fila i de una matriz A, n × n, podemos ver que si ε1 , ε2 , · · · , εn son las filas de la
matriz identidad, entonces
αi = (Ai1 , Ai2 , · · · , Ain )
= Ai1 ε1 + Ai2 ε2 , · · · , Ain εn (15)
Xn
= Aij εj . (16)
j=1

Aplicando la propiedad de linealidad en cada fila de la función determinante se producirá una suma
n2 términos de la forma A1i1 A2i2 · · · Anin det(εi1 , εi2 , · · · , εin ), donde i1 i2 · · · in es una secuencia de
n enteros que pueden tomar valores entre 1 y n, incluyendo a posibilidad de que estén repetidos.
Para visualizar lo que estamos diciendo, nos concentraremos en los casos de matrices 2 × 2 y 3 × 3.
Veamos el caso de una matriz, A, 2 × 2 con elementos Aij . Tal como afirmamos podemos escribirla
como A = (A11 ε1 + A21 ε2 , A21 ε1 + A22 ε2 ). Donde εi son las filas de la matriz identidad 2 × 2. Ası́
utilizando las propiedades de linealidad en cada fila se obtendremos
det(A11 ε1 + A12 ε2 , A21 ε1 + A22 ε1 ) = A11 A21 det(ε1 , ε1 ) + A11 A22 det(ε1 , ε2 ) (17)
+A12 A21 det(ε2 , ε1 ) + A12 A22 det(ε2 , ε2 ),
donde observamos la suma de 4 (= 22 ) términos correspondientes a las distintas secuencias que
se pueden construir con 1 y 2, a saber: 11, 12, 21, 22. En cada uno de estos términos aparecen
determinantes correspondientes a matrices donde intervienen las filas de la matriz identidad. Los
que tienen filas iguales det(ε1 , ε1 ) y det(ε2 , ε2 ) son cero por las propiedades del determinante. El
término det(ε1 , ε2 ) corresponde al determinante de la matriz identidad que vale 1 y por último el
término det(ε2 , ε1 ) corresponde al deterinante de una matriz que resulta de intercambiar la primera
y la segunda fila de la matriz identidad, por lo que vale −1. Ası́ en (18) nos queda
detA = A11 A22 − A21 A12 , (18)
que corresponde al determinante de cualquier matriz 2 × 2. Mas adelante veremos que los determi-
nantes de matrices de dimensión n × n pueden calcularse a partir de determinantes de matrices de
dimensión (n − 1) × (n − 1). Ası́ que inductivamente a partir de éste resultado para matrices 2 × 2
podremos calcular el determinante de una matriz 3 × 3 y asi sucesivamente.
Volviendo al caso del determinante de matrices n × n, observamos que ası́ como en el caso de las
matrices 2×2, en los n2 sumandos, sólo serán distintos de cero aquellos donde haya filas de la matriz
identidad que sean distintas. Ası́ de todas las secuencias i1 i2 · · · in solo contribuirán las que tengan n
enteros distintos. En otras palabras las secuencias que contribuyen corresponden a permutaciones de
123 · · · n. Denotamos a estas permutaciones como σ1 σ2 · · · σn . Los sumandos distintos de cero serán
de la forma A1σ1 A2σ2 · · · Anσn det(εσ1 , εσ2 , · · · , εσn ), donde εσi corresponde a la fila σi de la matriz
identidad. Dicho determinante corresponde al de una matriz donde se ha hecho un intercambio de
las filas de la matriz 1n×n , y aparece una sola vez cada fila pues ya se descartaron los determinantes
con filas repetidas. Por cada intercambio se produce un factor de −1, de esta forma si el número
de intercambios es par el valor del determinante es 1 y si el número de intercambios es impar el
determinante será −1. De esta forma si la secuencia 123 · · · n corresponde al orden de las filas de la
matriz identidad, en la suma tendremos todas las permutaciones distintas que puedan hacerse de
dicha secuencia. La permutación será par o impar si el número de intercambios de filas, a partir de
la matriz identidad, es par o impar. A ese valor 1 o −1 lo llamaremos el signo de las permutación
σ y lo denotamos como sgn σ donde σ corresponde a la secuencia σ1 σ2 · · · σn . Por tanto
X
detA = A1σ1 A2σ2 · · · Anσn det(εσ1 , εσ2 , · · · , εσn ), (19)
σ
X
≡ (sgn σ)A1σ1 A2σ2 · · · Anσn , (20)
σ

donde se entiende que la sumatoria se hace sobre todas las permutaciones σ de 123 · · · n. En ésta
expresión intrı́nsicamente hemos definido


 1 si σ es par

det(εσ1 , εσ2 , · · · , εσn ) =

 −1 si σ es impar

≡ sgn σ (21)
Un detalle a considerar es cuantos sumandos quedaron en (19) y (20), o dicho de otra forma cuantas
permutaciones podemos hacer con n enteros distintos. Para esto observamos que para escoger σ1
tenemos n valores posibles, luego para escoger σ2 contamos con los (n − 1) restantes, para σ3
tendremos (n − 2) posibilidades y asi sucesivamente. Entonces, el número de permutaciones de n
números distintos es n(n − 1)(n − 2) · · · 21 = n!.
Hay un sı́mbolo que nos da el signo de la permutación y que a su vez es cero cuando la secuencia
de n enteros contiene algún entero repetido y permitirá escribir el determinante de una matriz de
forma mas manejable. Este es el sı́mbolo de Levi-Civita, εσ1 σ2 ···σn





 1 si σ es una permutación par de 12 · · · n


εσ1 σ2 ···σn = −1 si σ es una permutación impar de 12 · · · n . (22)





 0
 si hay ı́ndices repetidos
En una sola expresión tendremos

εi1 i2 ···in = det(εi1 , εi2 , · · · , εin ). (23)

donde i1 i2 · · · in es cualquiera de las n2 secuencias que se pueden escribir con n enteros. Esto nos
permite escribir el determinante de la matriz A como la sumatoria
n
X
detA = εi1 i2 ···in A1i1 A2i2 · · · Anin . (24)
i1 ,i2 ,··· ,in =1

En el caso de la matriz 2 × 2 que desarrollamos en (18) la suma queda como


2
X
detA = εij A1i A2j
i,j=1
= ε11 A11 A21 + ε12 A11 A22
+ε21 A12 A21 + ε22 A12 A22 , (25)

que nos lleva al resultado esperado dado que ε11 = ε22 = 0, ε12 = 1 y ε21 = −1.

1.5 Propiedades del determinante, matriz cofactor, matriz inversa


Dada una matriz n × n A, con n > 1. Llamamos A(i|j) a la matriz (n − 1) × (n − 1) , que resulta
de eliminar la fila i y la columna j de A . Puede demostrarse que la función Ej , con 1 ≤ j ≤ n
definida por
Xn
Ej ≡ Aij (−1)i+j detA(i|j), (26)
i=1

cumple con todas las propiedades de la función determinante y por lo tanto es igual al detA para
cada j. Veamos como ejemplo el determinante de la matriz 3 × 3
 
 A11 A12 A13 
 
 
A=
 A21 A22 A23

 (27)
 
 
A31 A32 A33

y hagamos el desarrollo con la columna 1. Mirando (26), detA = E1 con


n
X
detA = E1 = Ai1 (−1)i+1 detA(i|1)
i=1
     
 A22 A23   A12 A13   A12 A13 
= A11 det   − A21 det   + A31 det  
     
A32 A33 A32 A33 A22 A23
= A11 (A22 A33 − A32 A23 ) − A21 (A12 A33 − A32 A13 ) + A31 (A12 A23 − A22 A13 ). (28)

Se pueden hacer los desarrollos para E2 y E3 , y verificar que los resultados coinciden, aunque esten
factorizados de forma distinta.
Acabamos de ver como se obtiene el determinante de una matriz general 3 × 3 usando el deter-
minante de una 2 × 2. Con este resultado podemos entonces calcular el de una matriz 4 × 4 haciendo
el desarrollo a partir de una de sus columnas. De esta forma sucesivamente vamos obteniendo el
determinante de matrices de dimensiones superiores.
Cabe resaltar que la secuencia de razonamiento que hemos ido llevando a cabo usando la repre-
sentación de las matrices en función de sus filas se puede repetir haciéndolo en una representación
en función de sus columnas obteniendo resultados equivalentes.
El desarrollo del determinante según (26) nos permite definir el concepto de matriz cofactor.
Dada una matriz A, el cofactor de su elemento ij, (cof A)ij es
(cof A)ij ≡ (−1)i+j detA(i|j) (29)
que corresponde a uno de los factores del desarrollo Ej . De esta forma (26) puede reescribirse como
n
X
detA = Aij (cof A)ij , para 1 ≤ j ≤ n. (30)
i=1

Puede verse que


n
X
Si j 6= k Aik (cof A)ij = 0, (31)
i=1
esto pues dicha expresión corresponde al determinante desarrollado según la columna j de una
matriz B que se obtiene de A reemplazando su columna j por su columna k. La matriz B tendrı́a
dos columnas iguales (la j y la k) y por tanto su determinante es cero. De esta forma tendremos
que
Xn
detA δjk = Aik (cof A)ij , (32)
i=1
donde notamos que el término derecho corresponde a una multiplicación de matrices que podemos
escribir como detA1n×n = (cof A)t A, lo que nos indica que si detA 6= 0 la inversa de A es
1
A−1 = (cof A)t , (33)
detA
1
≡ (adjA), (34)
detA
donde hemos introducido la definición de la matriz adjunta de A, adjA ≡ (cof A)t
(adjA)ij = (cof A)ji (35)
Como un ejemplo de estas relaciones mostramos las distintas definiciones para una matriz 2 × 2
   
 A11 A12   A22 −A21 
A=


 cof A = 



A21 A22 −A12 A11
   
 A22 −A12  1  A22 −A12 
adjA =   A−1 =   (36)
  A11 A22 − A12 A21  
−A21 A11 −A21 A11

La generalización de estas definiciones a matrices de dimensiones mayores se logra aplicando repeti-


damente de manera inductiva el desarrollo (26).
Consecuencias de la definición del determinante
Luego de tener una definición del determinante de una matriz cuadrada A puede probarse que se
satisfacen las siguientes propiedades

1. El determinante de un producto de matrices es el producto de sus determinantes

det(AB) = detAdetB (37)

2. El determinante de una matriz es igual al determinante de su traspuesta

detA = detAt (38)

3. El valor del determinante de una matriz no cambia si a una fila le sumamos un multiplo de
otra fila. Esto es una consecuencia directa de (13), que la reescribimos ası́

det(α1 , α2 , · · · , αi + λαi0 , · · · , αn ) = det(α1 , α2 , · · · , αi , · · · , αn ),


si αi0 es una de las filas de A (39)

4. Si una matriz es un arreglo de bloques Ar×r , Br×s , Cs×s y la matriz de s × r con puros 0 ,
entonces  
 A B 
det 

 = detAdetC
 (40)
0 C

Pasamos ahora a la particularización de estos conceptos para los casos: D = 2 y D = 3.

2 Uso del sı́ımbolo de Levi-Civita


2.1 D=2
En 2 dimensiones tenemos que el signo de Levi-Civita toma los valores ε11 = 0, ε12 = 1, ε21 =
−1 y ε22 = 0. El número de permutaciones de 2 enteros distintos es 2!, que corresponden a 12
(permutación par) y 21 (permutación impar). Podemos escribir

εij = det(εi , εj ), (41)


 
 δi1 δi2 
= det 

,
 (42)
δj1 δj2

de donde es directo verificar los valores que ya dimos.


El sı́mbolo de Levi-Civita en 2 dimensiones corresponde a los elementos de una matriz anti-
simétrica. Esto pues εij = −εji y puede verse que cualquier matriz antisimétrica en 2 dimensiones
es proporcional a la matriz cuyos elementos corresponden al sı́ımbolo de Levi-Civita. De hecho para
cualquier matriz 2 × 2 si Aij = −Aji , entonces A11 = A22 = 0 y A12 = −A21 = A. Ası́ Aij = Aεij .
La representación del sı́mbolo de Levi-Civita cmo un determinante permite, usando las propiedades
del determinante deducir la siguiente identidad

εij εkl = δik δjl − δil δjk . (43)

De hecho
   
 δi1 δi2   δk1 δk2 
εij εkl = det 

 det 
 


δj1 δj2 δl1 δl2
= usando (37),(38)
  
 δi1 δi2   δ1k δ1l 
= det 

 



δj1 δj2 δ2k δ2l
2
X
= teniendo en cuenta que sumas como δi1 δ1k + δi2 δ2k = δim δmk = δik
m=1
 
 δik δil 
= det 



δjk δjl
= δik δjl − δil δjk .

La identidad (43) nos permite obtener otras identidades que son de utilidad en distintos cálculos
2
X
εil εkl = δik , (44)
l=1
2
X
εkl εkl = 2. (45)
k,l=1

Observamos que para obtener estas identidades partimos de (43) e igualamos ı́dices sobre los cuales
luego hicimos una sumatoria sobre sus valores posibles. A éste procedimiento se le llama contracción
de los ı́ndices seleccionados. En la primera identidad contraı́mos j con l. La segunda se obtuvo
contrayendo adicionalmente a i con k.
En otra dirección el determinante de una matriz A, 2 × 2 se escribe también ası́
2
X 2
X
detA = εij A1i A2j (= ε12 εij A1i A2j )
i,j=1 i,j=1
2
X 2
X
= − εij A2i A1j (= ε21 εij A2i A1j )
i,j=1 i,j=1
2
X 1
= εkl εij Aki Alj . (46)
i,j,k,l=1
2!
En la segunda igualdad de (46), usamos el hecho el determinante cambia de signo si intercambiamos
las filas 1 y 2. Visto de otra forma, los dos términos corresponden a las dos permutaciones que
podemos hacer en los ı́ndices libres 1 y 2 (= 2!). El último término corresponde a la suma de
estas permutaciones y se divide entre el número de permutaciones. También observamos que de la
primera igualdad que
2
X
(cof A)1i = ε12 εij A2j
j=1
2
X
= ε1k εij Akj . (47)
k,j=1

Con una expresión semejante para (cof A)2i a partir de la segunda igualdad.

2.2 D=3
En 3 dimensiones tenemos que el sı́mbolo de Levi-Civita, εijk toma valores distintos de cero según
ijk corresponda a una permutación par o impar de 123.





 1 si ijk es una permutación par de 123


εijk = −1 si ijk es una permutación impar de 123 . (48)





 0

si hay ı́ndices repetidos

El número de permutaciones que pueden hacerse con tres enteros distintos es 3!. Las permutaciones
pares corresponden a 123, 312 y 231, que en esta dimensión son llamadas cı́clicas. Las permutaciones
impares corresponden a 132, 321 y 213.
Si miramos a εijk como un objeto que tiene tres ı́ndices se observa que dicho objeto es anti-
simétrico si intercambiamos dos de sus ı́ndices: εijk = −εjik = −εkji = −εikj . Se dice, entonces,
que el sı́mbolo de Levi-Civita es un objeto completamente antisimétrico en sus ı́ndices. De forma
análoga al caso de 2 dimensiones, cualquier objeto copletamente antisimétrico en 3 dimensiones
será proporcional al sı́mbolo de Levi-Civita: si Aijk es completamente antisimétrico en ijk en 3
dimensiones, entonces, Aijk = Aεijk , donde A es algún escalar.
Se puede verificar que
εijk = εkij = εjki (49)
εijk puede escribirse también como el determinante de una matriz 3 × 3

εijk = det(εi , εj , εk )
 
 δi1 δi2 δi3 
 
 
= 
 δj1 δj2 δj3
,
 (50)
 
 
δk1 δk2 δk3

que nos servirá para generalizar las identidades que introducimos en D = 2.


Siguiendo con el razonamiento que hicimos en D = 2 la expresión de εijk como determinante de
una matriz nos sirve para generalizar a D = 3 la identidad (43)
 
 δil δim δin 
 
 
εijk εlmn = det 
 δjl δjm δjn

 (51)
 
 
δkl δkm δkn
= δil δjm δkn + δin δjl δkm + δim δjn δkl +
−δil δjn δkm − δin δjm δkl − δim δjl δkn . (52)

De esta relación se realizan las respectivas contracciones


3
X
εijk εlmk = δil δjm − δim δjl , (53)
k=1
X3
εijk εljk = 2δil , (54)
j,k=1
3
X
εijk εijk = 2 · 3 = 3! (55)
i,j,k=1

De forma análoga a (46) para una matriz A, 3 × 3, tendremos que


3
X 3
X
detA = εijk A1i A2j A3k (= ε123 εijk A1i A2j A3k )
i,j,k=1 i,j,k=1
3
X 1
= εlmn εijk Ali Amj Ank . (56)
i,j,k,l,m,n=1
3!

En la última relación de (56) hemos considerado que podemos hacer permutaciones de 123 en las
filas de A en la primera expresión cuyo efecto se reflejará en un factor de ±1 dependiendo si la
permutación es par o impar, el cual quedará perfectamente determinado por el sı́mbolo de Levi-
Civita. En la sumatoria final cada término es igual al detA y por eso dividimos entre el número
total de permutaciones (3!).
Pasemos ahora a una de las aplicaciones, en el álgebra vectorial, del sı́mbolo de Levi-Civita la
encontramos cuando los vectores en el espacio se generan por una base ortonormal. En éste sentido
las propiedades del producto vectorial nos llevan a que sólo necesitamos el producto vectorial entre
los elementos de la base para calcular el producto vectorial de dos vectores generados en dicha base.
Ası́ si la base ortonormal es {êi }, con êi · êj = δij , resulta que para cada par de vectores de la base,
el tercero es perpendicular al plano que los contiene y además tiene módulo 1. Diremos que la base
está orientada a la derecha si ê1 × ê2 = ê3 . Con este orden puede verse gráficamente que ê2 × ê3 = ê1
y ê3 × ê1 = ê2 . Todas estas relaciones se escriben en una sola como
3
X
êi × êj = εijk êk . (57)
k=1
ai êi y ~b =
P3 P3
Con ésta última expresión tendremos que para dos vectores ~a = i=1 j=1 bi êj , su
producto vectorial se escribe de forma compacta como
3
X
~a × ~b = ai bj εijk êk . (58)
i,j,k=1

Para efectos de cálculos que haremos mas abajo, notamos que la componente k de ~a × ~b es
3
X
[~a × ~b]k = ai bj εijk . (59)
i,j=1

Una aplicación directa de las identidades del sı́mbolo de Levi-Civita la observamos si queremos
calcular el producto vectorial de un vector por el producto vectorial de dos vectores. Si ~a, ~b y ~c, son
tres vectores cuyas componentes en una base ortonormal son ai , bi y ci , respectivamente, sucede
que
~a × (~b × ~c) = (~a · ~c)~b − (~a · ~b)~c. (60)
De hecho, usando (58), la expresión de las componentes (59) y la contracción (53)
3
X
~a × (~b × ~c) = εijk ai (~b × ~c)j êk
ijk
3
X
= εijk ai εlmj bl cm êk
i,j,k,l,m=1
= (εijk = −εikj y usando (53))
X 3
= ai bl cm (−δil δkm + δim δkl )êk
i,k,l,m=1
3
X 3
X
= i i k
[(ai ci )~b − (ai bi )~c]
i i k
(−a b c + a c b )êk =
i,k=1 i=1

= (~a · ~c)~b − (~a · ~b)~c. (61)

En otra dirección es directo obtener que

(~a × ~b) · ~c = (~c × ~a) · ~b = (~b × ~c) · ~a, (62)

para esto desarrollamos el producto en componentes


3
X
(~a × ~b) · ~c = ai bj εijkcl êk · êl ,
i,j,k,l=1
3
X
= ai bj ck εijk , (63)
i,j,k

De donde es directo obtener la igualdad con las otras expresiones al desarrollarlas usando las
propiedades del sı́mbolo de Levi-Civita.
La expresion ([?]) si la combinamos con la definicin de determinante puede reescribirse tambien
como el determinante de una matriz cuyas filas son las componentes de los vectores ~a, ~b y ~c, en ese
orden  
 a1 a2 a3 
 
~
 
(~a × b) · ~c = det  b b b 
 1 2 3
 (64)
 
 
c1 c2 c3

3 Ejercicios
1. Dadas las matrices
 
 1 
     
 
 1 
 3 5 0 1   2   −1 1 
A=


 B=
 
 C=



0 −4 1 2  0 
  0 −5
 
 
1
 
 4 0, 3 
 
D=


 E= 3 −1 0 2
2 0

• Halle los productos AB, CA, DA. Compruebe que C(AB) = (CA)B.
• Compruebe que (C + D)A = CA + DA.
• Halle los productos BE, EB, CD, DC. ¿Qué concluye respecto a la conmutatividad del
producto de matrices?.
• Halle los productos B t At , E t B t . Verifique que (AB)t = B t At y que (BE)t = E t B t .

2. Halle las expresiones


3
X
• ai δik bk
k=1
3
X
• δkk
k=1
3
X
• (δik δjj − δij δjk )
j=1
2
X
• (δik δjj − δij δjk )
j=1
4
X
• (δjk δjl − δjl δjk )
j=1
3
X
• δ3k δjjAkj )
j,k=1

3. Sea A una matriz n × n antisimétrica (es decir A = −At ). Muestre que detA = 0 si n es
impar.

4. Muestre que (AB)−1 = B −1 A−1

5. Muestre que para una matriz 2 × 2


2
X
(cof A)ij = εik εjl Akl .
k,l=1

Deduzca, entonces, la expresión de la matriz inversa.

6. En la demostracón que se hizo de la identidad (43) se hizo uso de la propiedad de que el


determinante de una matriz es igual al determinante de su traspuesta. Ver que se obtiene el
mismo resultado sin hacer uso de dicha propiedad, es decir
      
 δi1 δi2   δk1 δk2   δi1 δi2   δk1 δk2 
εij εkl = det 

 det 
 
 = det 
 




δj1 δj2 δl1 δl2 δj1 δj2 δl1 δl2
= δik δjl − δil δjk .

7. Muestre que
εij εkl + εil εjk + εik εlj = 0.
Sugerencia: Muestre que la expresión antes de la igualdad es antisimétrica en jkl y de argu-
mentos para soportar la igualdad.

8. Muestre que en D = 3 se satisface la identidad (52) usando la expresión de εijk como el


determinante de una matriz, de forma análoga a como se hizo para mostrar (43).

9. Muestre las siguientes identidades vectoriales

• (~a × ~b) · (~c × d)


~ = (~a · ~c)(~b · d)
~ − (~a · d)(
~ ~b · ~c)
• (~a × ~b) × (~c × d)
~ = ((~a × ~b) · d))~
~ c − ((~a × ~b) · ~c))d~ = ((~c × d)
~ · ~a))~b − ((~c × d)
~ · ~b))~a

10. Álgebra matricial con las matrices de Pauli. Considere las matrices 2 × 2
     
 0 1   0 −ı   1 0 
σ1 = 


 σ2 = 


 σ3 = 

,

1 0 ı 0 0 −1

donde ı = −1. Estas se conocen como las matrices de Pauli.
• Ver que detσj = −1, para j = 1, 2, 3.
• Calcule los productos σj σk para distintos valores de j y k (j, k = 1, 2, 3). Muestre que

σj σk + σk σj = 2δjk ,
X3
σj σk − σk σj = 2ı εjkl σl .
l=1

• Con los resultados de la parte anterior muestre que


3
X
σj σk = δjk + ı εjkl σl .
l=1

• Ver que para n un entero positivo o 0 sucede que (σj )2n = 12×2 y (σj )2n+1 = σj . Ası́,
teniendo en cuenta que ı2n = (−1)n y ı2n+1 = (−1)n ı, se puede generalizar la fórmula de
Euler (eıθ = cosθ + ısenθ) a

(ıθσj )n
= 12×2 cosθ + ıσj senθ
X
ıθσj
e ≡ (65)
n=0
n!

11. Dadas las matrices


     
 −1 0 0   1 0 0   γ −βγ 0 
     
R=
     
η=
 0 1 0 
  0 cosθ −senθ 
 Λ=
 −βγ γ 0 ,
 (66)
     
     
0 0 1 0 senθ cosθ 0 0 1

donde γ = √ 1 .
1−β 2

• Calcule det η
• Ver que Λt ηΛ = η
• Ver que Rt η R = η
• Teniendo en cuenta los resultados de las partes anteriores que puede decir del determi-
nante de R y de Λ.

12. Muestre la identidad


εijk δlm = εmjk δil + εimk δjl + εijm δkl (67)

Bibliografı́a

• Álgebra lineal, Kenneth Hoffman y Ray Kunze.

• Vectores y tensores con sus aplicaciones, Luis A. Santaló.

• Classical dynamics of particles and systems, Jerry Marion y Stephen Thornton.

Das könnte Ihnen auch gefallen