Beruflich Dokumente
Kultur Dokumente
1 Matrices
1.1 Definición y operaciones
Una matriz de dimensión m × n sobre un conjunto K es una función A del conjunto de los pares
de enteros (i, j), 1 ≤ i ≤ m, 1 ≤ j ≤ n, en el conjunto K. Los elementos de la matriz A son
A(i, j) ≡ Aij y se representan usualmente como un arreglo rectangular con m filas y n columnas.
Los elementos de las matrices que se usan en distintos cálculos fı́sicos tienen la particularidad
que sus elementos, por ser magnitudes fı́sicas, tienen todos las mismas unidades. Por ejemplo una
matriz que se usa en mecánica clásica, conocida como el tensor de inercia, sus elementos tienen
unidades M L2 . Igualmente los vectores en dimensión D pueden representarse por sus componentes
en una base dada como una matriz 1 × D (tipo fila) o como una matriz D × 1 (tipo columna), en
cuyo caso los elementos tendrán las unidades de las respectivas componentes.
La suma de matrices de iguales dimensiones, cuyos elementos tengan las mismas unidades, se
define como
(A + B)ij = Aij + Bij , (1)
y el producto de un escalar por una matriz
Entendiéndose que las unidades de los elementos de la matriz resultante pudieran cambiar si el
escalar tiene unidades.
La mutiplicación de una matriz A, m × n por otra matriz B, n × r, da como resultado una
matriz m × r, cuyos elementos son
n
X
(AB)ij = Aik Bkj . (3)
k=1
Este elemento ij de la matriz producto se puede visualizar como el producto de una matriz 1 × n
(la fila i de A) por una matriz n × 1 (la columna j de B). Las unidades de los elementos de la
matriz producto son el producto de las unidades de los factores.
La suma y multiplicación de matrices satisfacen las propiedades A(B+C) = AB+AC (propiedad
distributiva del producto respecto a la suma de matrices), A(BC) = (AB)C (propiedad asociativa
1
del producto), entendiéndose que A, B y C tienen las dimensiones apropiadas, y sus elementos las
unidades apropiadas, para la realización de las operaciones. El producto de matrices en general no
es conmutativo.
donde hemos introducido el sı́mbolo delta de Kronecker, δij , cuyos valores para un par de enteros
ij están en correspondencia con los elementos ij de la matriz identidad.
Por su definición la matriz identidad satisface que A1 = 1A = A. Dicha expresión, en compo-
nentes se expresa como
n
(1A)ij =
X
Aik δkj = Aij ,
k=1
n
(A1)ij =
X
δik Akj = Aij , (6)
k=1
Dichas relaciones nos dan una guı́a de como manipular expresiones donde aparezca la delta de
Kronecker.
En el caso del producto entre matrices de dimensiones generales, la matriz identidad tambien
corresponde a un elemento neutro. Ası́ para Bn×m y Cr×n , sucede que 1n×n Bn×m = Bn×m y
Cr×n 1n×n = Cr×n .
Cuando, en cambio, una matriz cambia de signo al trasponerla diremos que la matriz es anti-
simétrica
la representación en función de sus filas será A = (α1 , α2 ), con α1 = (A11 , A12 ) y α2 = (A21 , A22 ).
Otro ejemplo mas explı́cito con una matriz 3 × 3, si B
0 1 2
B=
−1 1 2
(11)
1 0 −1
su representación como función de sus filas será B = (α1 , α2 , α3 ), con α1 = (0, 1, 2), α2 = (−1, 1, 2)
y α3 = (1, 0, −1). En particular para la matriz identidad llamamos a cada una de sus filas εi , asi
1n×n = (ε1 , ε2 , · · · , εn ), donde la fila i tiene ceros en las entradas distintas a la columna i, donde
toma el valor 1. Los elementos de esta fila 1 × n pueden escribirse como (εi )1j = δij . Por ejemplo,
representamos la matriz identidad 3 × 3
Estas propiedades del determinante nos permiten reescribir el determinante de una matriz en
función de determinantes de matrices cuyas filas correspondan a filas de la matriz identidad. De
hecho, si αi es la fila i de una matriz A, n × n, podemos ver que si ε1 , ε2 , · · · , εn son las filas de la
matriz identidad, entonces
αi = (Ai1 , Ai2 , · · · , Ain )
= Ai1 ε1 + Ai2 ε2 , · · · , Ain εn (15)
Xn
= Aij εj . (16)
j=1
Aplicando la propiedad de linealidad en cada fila de la función determinante se producirá una suma
n2 términos de la forma A1i1 A2i2 · · · Anin det(εi1 , εi2 , · · · , εin ), donde i1 i2 · · · in es una secuencia de
n enteros que pueden tomar valores entre 1 y n, incluyendo a posibilidad de que estén repetidos.
Para visualizar lo que estamos diciendo, nos concentraremos en los casos de matrices 2 × 2 y 3 × 3.
Veamos el caso de una matriz, A, 2 × 2 con elementos Aij . Tal como afirmamos podemos escribirla
como A = (A11 ε1 + A21 ε2 , A21 ε1 + A22 ε2 ). Donde εi son las filas de la matriz identidad 2 × 2. Ası́
utilizando las propiedades de linealidad en cada fila se obtendremos
det(A11 ε1 + A12 ε2 , A21 ε1 + A22 ε1 ) = A11 A21 det(ε1 , ε1 ) + A11 A22 det(ε1 , ε2 ) (17)
+A12 A21 det(ε2 , ε1 ) + A12 A22 det(ε2 , ε2 ),
donde observamos la suma de 4 (= 22 ) términos correspondientes a las distintas secuencias que
se pueden construir con 1 y 2, a saber: 11, 12, 21, 22. En cada uno de estos términos aparecen
determinantes correspondientes a matrices donde intervienen las filas de la matriz identidad. Los
que tienen filas iguales det(ε1 , ε1 ) y det(ε2 , ε2 ) son cero por las propiedades del determinante. El
término det(ε1 , ε2 ) corresponde al determinante de la matriz identidad que vale 1 y por último el
término det(ε2 , ε1 ) corresponde al deterinante de una matriz que resulta de intercambiar la primera
y la segunda fila de la matriz identidad, por lo que vale −1. Ası́ en (18) nos queda
detA = A11 A22 − A21 A12 , (18)
que corresponde al determinante de cualquier matriz 2 × 2. Mas adelante veremos que los determi-
nantes de matrices de dimensión n × n pueden calcularse a partir de determinantes de matrices de
dimensión (n − 1) × (n − 1). Ası́ que inductivamente a partir de éste resultado para matrices 2 × 2
podremos calcular el determinante de una matriz 3 × 3 y asi sucesivamente.
Volviendo al caso del determinante de matrices n × n, observamos que ası́ como en el caso de las
matrices 2×2, en los n2 sumandos, sólo serán distintos de cero aquellos donde haya filas de la matriz
identidad que sean distintas. Ası́ de todas las secuencias i1 i2 · · · in solo contribuirán las que tengan n
enteros distintos. En otras palabras las secuencias que contribuyen corresponden a permutaciones de
123 · · · n. Denotamos a estas permutaciones como σ1 σ2 · · · σn . Los sumandos distintos de cero serán
de la forma A1σ1 A2σ2 · · · Anσn det(εσ1 , εσ2 , · · · , εσn ), donde εσi corresponde a la fila σi de la matriz
identidad. Dicho determinante corresponde al de una matriz donde se ha hecho un intercambio de
las filas de la matriz 1n×n , y aparece una sola vez cada fila pues ya se descartaron los determinantes
con filas repetidas. Por cada intercambio se produce un factor de −1, de esta forma si el número
de intercambios es par el valor del determinante es 1 y si el número de intercambios es impar el
determinante será −1. De esta forma si la secuencia 123 · · · n corresponde al orden de las filas de la
matriz identidad, en la suma tendremos todas las permutaciones distintas que puedan hacerse de
dicha secuencia. La permutación será par o impar si el número de intercambios de filas, a partir de
la matriz identidad, es par o impar. A ese valor 1 o −1 lo llamaremos el signo de las permutación
σ y lo denotamos como sgn σ donde σ corresponde a la secuencia σ1 σ2 · · · σn . Por tanto
X
detA = A1σ1 A2σ2 · · · Anσn det(εσ1 , εσ2 , · · · , εσn ), (19)
σ
X
≡ (sgn σ)A1σ1 A2σ2 · · · Anσn , (20)
σ
donde se entiende que la sumatoria se hace sobre todas las permutaciones σ de 123 · · · n. En ésta
expresión intrı́nsicamente hemos definido
1 si σ es par
det(εσ1 , εσ2 , · · · , εσn ) =
−1 si σ es impar
≡ sgn σ (21)
Un detalle a considerar es cuantos sumandos quedaron en (19) y (20), o dicho de otra forma cuantas
permutaciones podemos hacer con n enteros distintos. Para esto observamos que para escoger σ1
tenemos n valores posibles, luego para escoger σ2 contamos con los (n − 1) restantes, para σ3
tendremos (n − 2) posibilidades y asi sucesivamente. Entonces, el número de permutaciones de n
números distintos es n(n − 1)(n − 2) · · · 21 = n!.
Hay un sı́mbolo que nos da el signo de la permutación y que a su vez es cero cuando la secuencia
de n enteros contiene algún entero repetido y permitirá escribir el determinante de una matriz de
forma mas manejable. Este es el sı́mbolo de Levi-Civita, εσ1 σ2 ···σn
1 si σ es una permutación par de 12 · · · n
εσ1 σ2 ···σn = −1 si σ es una permutación impar de 12 · · · n . (22)
0
si hay ı́ndices repetidos
En una sola expresión tendremos
donde i1 i2 · · · in es cualquiera de las n2 secuencias que se pueden escribir con n enteros. Esto nos
permite escribir el determinante de la matriz A como la sumatoria
n
X
detA = εi1 i2 ···in A1i1 A2i2 · · · Anin . (24)
i1 ,i2 ,··· ,in =1
que nos lleva al resultado esperado dado que ε11 = ε22 = 0, ε12 = 1 y ε21 = −1.
cumple con todas las propiedades de la función determinante y por lo tanto es igual al detA para
cada j. Veamos como ejemplo el determinante de la matriz 3 × 3
A11 A12 A13
A=
A21 A22 A23
(27)
A31 A32 A33
Se pueden hacer los desarrollos para E2 y E3 , y verificar que los resultados coinciden, aunque esten
factorizados de forma distinta.
Acabamos de ver como se obtiene el determinante de una matriz general 3 × 3 usando el deter-
minante de una 2 × 2. Con este resultado podemos entonces calcular el de una matriz 4 × 4 haciendo
el desarrollo a partir de una de sus columnas. De esta forma sucesivamente vamos obteniendo el
determinante de matrices de dimensiones superiores.
Cabe resaltar que la secuencia de razonamiento que hemos ido llevando a cabo usando la repre-
sentación de las matrices en función de sus filas se puede repetir haciéndolo en una representación
en función de sus columnas obteniendo resultados equivalentes.
El desarrollo del determinante según (26) nos permite definir el concepto de matriz cofactor.
Dada una matriz A, el cofactor de su elemento ij, (cof A)ij es
(cof A)ij ≡ (−1)i+j detA(i|j) (29)
que corresponde a uno de los factores del desarrollo Ej . De esta forma (26) puede reescribirse como
n
X
detA = Aij (cof A)ij , para 1 ≤ j ≤ n. (30)
i=1
3. El valor del determinante de una matriz no cambia si a una fila le sumamos un multiplo de
otra fila. Esto es una consecuencia directa de (13), que la reescribimos ası́
4. Si una matriz es un arreglo de bloques Ar×r , Br×s , Cs×s y la matriz de s × r con puros 0 ,
entonces
A B
det
= detAdetC
(40)
0 C
De hecho
δi1 δi2 δk1 δk2
εij εkl = det
det
δj1 δj2 δl1 δl2
= usando (37),(38)
δi1 δi2 δ1k δ1l
= det
δj1 δj2 δ2k δ2l
2
X
= teniendo en cuenta que sumas como δi1 δ1k + δi2 δ2k = δim δmk = δik
m=1
δik δil
= det
δjk δjl
= δik δjl − δil δjk .
La identidad (43) nos permite obtener otras identidades que son de utilidad en distintos cálculos
2
X
εil εkl = δik , (44)
l=1
2
X
εkl εkl = 2. (45)
k,l=1
Observamos que para obtener estas identidades partimos de (43) e igualamos ı́dices sobre los cuales
luego hicimos una sumatoria sobre sus valores posibles. A éste procedimiento se le llama contracción
de los ı́ndices seleccionados. En la primera identidad contraı́mos j con l. La segunda se obtuvo
contrayendo adicionalmente a i con k.
En otra dirección el determinante de una matriz A, 2 × 2 se escribe también ası́
2
X 2
X
detA = εij A1i A2j (= ε12 εij A1i A2j )
i,j=1 i,j=1
2
X 2
X
= − εij A2i A1j (= ε21 εij A2i A1j )
i,j=1 i,j=1
2
X 1
= εkl εij Aki Alj . (46)
i,j,k,l=1
2!
En la segunda igualdad de (46), usamos el hecho el determinante cambia de signo si intercambiamos
las filas 1 y 2. Visto de otra forma, los dos términos corresponden a las dos permutaciones que
podemos hacer en los ı́ndices libres 1 y 2 (= 2!). El último término corresponde a la suma de
estas permutaciones y se divide entre el número de permutaciones. También observamos que de la
primera igualdad que
2
X
(cof A)1i = ε12 εij A2j
j=1
2
X
= ε1k εij Akj . (47)
k,j=1
Con una expresión semejante para (cof A)2i a partir de la segunda igualdad.
2.2 D=3
En 3 dimensiones tenemos que el sı́mbolo de Levi-Civita, εijk toma valores distintos de cero según
ijk corresponda a una permutación par o impar de 123.
1 si ijk es una permutación par de 123
εijk = −1 si ijk es una permutación impar de 123 . (48)
0
si hay ı́ndices repetidos
El número de permutaciones que pueden hacerse con tres enteros distintos es 3!. Las permutaciones
pares corresponden a 123, 312 y 231, que en esta dimensión son llamadas cı́clicas. Las permutaciones
impares corresponden a 132, 321 y 213.
Si miramos a εijk como un objeto que tiene tres ı́ndices se observa que dicho objeto es anti-
simétrico si intercambiamos dos de sus ı́ndices: εijk = −εjik = −εkji = −εikj . Se dice, entonces,
que el sı́mbolo de Levi-Civita es un objeto completamente antisimétrico en sus ı́ndices. De forma
análoga al caso de 2 dimensiones, cualquier objeto copletamente antisimétrico en 3 dimensiones
será proporcional al sı́mbolo de Levi-Civita: si Aijk es completamente antisimétrico en ijk en 3
dimensiones, entonces, Aijk = Aεijk , donde A es algún escalar.
Se puede verificar que
εijk = εkij = εjki (49)
εijk puede escribirse también como el determinante de una matriz 3 × 3
εijk = det(εi , εj , εk )
δi1 δi2 δi3
=
δj1 δj2 δj3
,
(50)
δk1 δk2 δk3
En la última relación de (56) hemos considerado que podemos hacer permutaciones de 123 en las
filas de A en la primera expresión cuyo efecto se reflejará en un factor de ±1 dependiendo si la
permutación es par o impar, el cual quedará perfectamente determinado por el sı́mbolo de Levi-
Civita. En la sumatoria final cada término es igual al detA y por eso dividimos entre el número
total de permutaciones (3!).
Pasemos ahora a una de las aplicaciones, en el álgebra vectorial, del sı́mbolo de Levi-Civita la
encontramos cuando los vectores en el espacio se generan por una base ortonormal. En éste sentido
las propiedades del producto vectorial nos llevan a que sólo necesitamos el producto vectorial entre
los elementos de la base para calcular el producto vectorial de dos vectores generados en dicha base.
Ası́ si la base ortonormal es {êi }, con êi · êj = δij , resulta que para cada par de vectores de la base,
el tercero es perpendicular al plano que los contiene y además tiene módulo 1. Diremos que la base
está orientada a la derecha si ê1 × ê2 = ê3 . Con este orden puede verse gráficamente que ê2 × ê3 = ê1
y ê3 × ê1 = ê2 . Todas estas relaciones se escriben en una sola como
3
X
êi × êj = εijk êk . (57)
k=1
ai êi y ~b =
P3 P3
Con ésta última expresión tendremos que para dos vectores ~a = i=1 j=1 bi êj , su
producto vectorial se escribe de forma compacta como
3
X
~a × ~b = ai bj εijk êk . (58)
i,j,k=1
Para efectos de cálculos que haremos mas abajo, notamos que la componente k de ~a × ~b es
3
X
[~a × ~b]k = ai bj εijk . (59)
i,j=1
Una aplicación directa de las identidades del sı́mbolo de Levi-Civita la observamos si queremos
calcular el producto vectorial de un vector por el producto vectorial de dos vectores. Si ~a, ~b y ~c, son
tres vectores cuyas componentes en una base ortonormal son ai , bi y ci , respectivamente, sucede
que
~a × (~b × ~c) = (~a · ~c)~b − (~a · ~b)~c. (60)
De hecho, usando (58), la expresión de las componentes (59) y la contracción (53)
3
X
~a × (~b × ~c) = εijk ai (~b × ~c)j êk
ijk
3
X
= εijk ai εlmj bl cm êk
i,j,k,l,m=1
= (εijk = −εikj y usando (53))
X 3
= ai bl cm (−δil δkm + δim δkl )êk
i,k,l,m=1
3
X 3
X
= i i k
[(ai ci )~b − (ai bi )~c]
i i k
(−a b c + a c b )êk =
i,k=1 i=1
De donde es directo obtener la igualdad con las otras expresiones al desarrollarlas usando las
propiedades del sı́mbolo de Levi-Civita.
La expresion ([?]) si la combinamos con la definicin de determinante puede reescribirse tambien
como el determinante de una matriz cuyas filas son las componentes de los vectores ~a, ~b y ~c, en ese
orden
a1 a2 a3
~
(~a × b) · ~c = det b b b
1 2 3
(64)
c1 c2 c3
3 Ejercicios
1. Dadas las matrices
1
1
3 5 0 1 2 −1 1
A=
B=
C=
0 −4 1 2 0
0 −5
1
4 0, 3
D=
E= 3 −1 0 2
2 0
• Halle los productos AB, CA, DA. Compruebe que C(AB) = (CA)B.
• Compruebe que (C + D)A = CA + DA.
• Halle los productos BE, EB, CD, DC. ¿Qué concluye respecto a la conmutatividad del
producto de matrices?.
• Halle los productos B t At , E t B t . Verifique que (AB)t = B t At y que (BE)t = E t B t .
3. Sea A una matriz n × n antisimétrica (es decir A = −At ). Muestre que detA = 0 si n es
impar.
7. Muestre que
εij εkl + εil εjk + εik εlj = 0.
Sugerencia: Muestre que la expresión antes de la igualdad es antisimétrica en jkl y de argu-
mentos para soportar la igualdad.
10. Álgebra matricial con las matrices de Pauli. Considere las matrices 2 × 2
0 1 0 −ı 1 0
σ1 =
σ2 =
σ3 =
,
1 0 ı 0 0 −1
√
donde ı = −1. Estas se conocen como las matrices de Pauli.
• Ver que detσj = −1, para j = 1, 2, 3.
• Calcule los productos σj σk para distintos valores de j y k (j, k = 1, 2, 3). Muestre que
σj σk + σk σj = 2δjk ,
X3
σj σk − σk σj = 2ı εjkl σl .
l=1
• Ver que para n un entero positivo o 0 sucede que (σj )2n = 12×2 y (σj )2n+1 = σj . Ası́,
teniendo en cuenta que ı2n = (−1)n y ı2n+1 = (−1)n ı, se puede generalizar la fórmula de
Euler (eıθ = cosθ + ısenθ) a
∞
(ıθσj )n
= 12×2 cosθ + ıσj senθ
X
ıθσj
e ≡ (65)
n=0
n!
donde γ = √ 1 .
1−β 2
• Calcule det η
• Ver que Λt ηΛ = η
• Ver que Rt η R = η
• Teniendo en cuenta los resultados de las partes anteriores que puede decir del determi-
nante de R y de Λ.
Bibliografı́a