Beruflich Dokumente
Kultur Dokumente
Prefacio XI
1. Espacios vectoriales 1
1.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Metrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1. Espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3. Tensor metrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4. Topologa metrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Espacios Eucldeos y de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2. Espacios no Eucldeos: espacio dual y base dual . . . . . . . . . . . . . . . . . 14
1.4. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.1. Definicion de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.2. Cambios de base sobre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.3. Cambios de base sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . . 20
1.4.4. Ley de transformacion del tensor metrico . . . . . . . . . . . . . . . . . . . . 21
1.4.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.1. Soluciones a problemas seleccionados (Tema 1) . . . . . . . . . . . . . . . . . 25
1.6. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Tensores 29
2.1. Concepto de tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1. Tensores en fsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.2. Rango tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.3. Ley de transformacion de tensores generales . . . . . . . . . . . . . . . . . . . 31
2.2. Magnitudes fsicas de rango tensorial superior . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1. Tensores de polarizabilidad y de conductividad electrica . . . . . . . . . . . . 32
2.2.2. Tensor de esfuerzos o de tensiones . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.3. Derivacion de campos tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3. Definicion de tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.1. Espacio producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.2. Tensores afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
iii
iv INDICE
3. Densidades tensoriales 57
3.1. Ley de transformacion de densidades tensoriales generales . . . . . . . . . . . . . . . 59
3.1.1. Producto de densidades tensoriales . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2. Espacios orientables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.1. Bases ordenadas y orientacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3. Smbolo alternante de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.1. Tensor alternante de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4. Producto vectorial en espacios tridimensionales . . . . . . . . . . . . . . . . . . . . . 65
3.4.1. Definicion de producto vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2. Calculo de volumenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.3. Rotaciones infinitesimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5. Introduccion al producto exterior de p-formas . . . . . . . . . . . . . . . . . . . . . . 70
3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.6.1. Soluciones a problemas seleccionados (Tema 3) . . . . . . . . . . . . . . . . . 73
3.7. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4. Campos tensoriales 81
4.1. Variedades diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.1.1. Curvas y superficies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.1.2. Geometra intrnseca y extrnseca . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.1.3. Ejemplos de variedades en fsica . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.1.4. Diferenciabilidad y parametrizaciones . . . . . . . . . . . . . . . . . . . . . . 91
4.1.5. Ejemplos de variedades y parametrizaciones . . . . . . . . . . . . . . . . . . . 94
4.2. Fibrados tangente y cotangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.2.1. Espacio tangente a un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 96
4.2.2. Espacio tangente de una variedad diferenciable . . . . . . . . . . . . . . . . . 97
4.3. El espacio vectorial Rn en coordenadas curvilneas . . . . . . . . . . . . . . . . . . . 101
4.3.1. Base natural y metrica del espacio tangente . . . . . . . . . . . . . . . . . . . 102
4.3.2. Componentes fsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.3. El espacio Eucldeo R3 en coordenadas cilndricas . . . . . . . . . . . . . . . 106
4.3.4. El espacio Eucldeo R3 en coordenadas esfericas . . . . . . . . . . . . . . . . 107
4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.4.1. Soluciones a problemas seleccionados (Tema 4) . . . . . . . . . . . . . . . . . 108
4.5. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
INDICE v
Bibliografa 145
2.1. El producto n es la fuerza por unidad de superficie ejercida por el medio situado
en el lado hacia donde apunta la normal sobre el medio situado al otro lado. . . . . . 35
2.2. Elemento infinitesimal de medio material con forma de tetraedro. . . . . . . . . . . . 36
vii
viii LISTA DE FIGURAS
Lista de tablas
3.1. Paridad del tensor dado por el producto tensorial o de contraccion (respecto de
cualquier par de ndices) de dos tensores A y B. . . . . . . . . . . . . . . . . . . . . 61
3.2. Dimensionalidad del producto exterior de dos vectores en funcion de la dimensiona-
lidad (n) del espacio vectorial al que pertenecen. . . . . . . . . . . . . . . . . . . . . 72
ix
x LISTA DE TABLAS
Prefacio
Contexto y objetivos
Estos apuntes son el material basico para el estudio de la primera parte de la asignatura Metodos
Matematicos IV (primer semestre del tercer curso del Grado en Fsica) impartido por la UNED
desde el curso 2012-2013. El temario de esta parte de la asignatura es el habitual en un primer
curso de calculo tensorial para fsicos e incluye desde las nociones basicas (componentes co- y
contra-variantes de vectores) hasta temas avanzados (transporte paralelo, derivada covariante y
version covariante de los operadores diferenciales habituales en coordenadas generalizadas). En la
exposicion se presuponen conocimientos basicos de algebra lineal, calculo con funciones de varias
variables y tambien algunos conocimientos de fsica general (sobre todo de mecanica y tambien
algo de electromagnetismo y termodinamica) que si bien no son necesarios para esta asignatura se
emplean en algunos ejemplos y para mostrar la motivacion fsica de esta rama de las matematicas.
Estos apuntes estan especialmente orientados para estudiantes de fsicas. En la exposicion hemos
procurado complementar las definiciones formales habituales con ejemplos y explicaciones intuitivas
y practicas.
Las principales aplicaciones del calculo tensorial en fsica son, a grandes rasgos, la descripcion de
diversas variables fsicas por medio de campos tensoriales (escalares, vectoriales o de rango tensorial
superior). El contexto en que se definen estos campos tensoriales es generalmente una variedad dife-
renciable n-dimensional sobre la que se han definido unas coordenadas generalizadas que recorren la
variedad, y cuyo espacio tangente tiene estructura de espacio de Riemann (conceptos que veremos
a lo largo de este curso), en particular el caso mas sencillo de espacio Eucldeo tri-dimensional es
especialmente frecuente e importante. Los tensores se emplean en general para describir multitud
de variables en todos los campos de la fsica. Las aplicaciones del calculo tensorial en relatividad
son sobradamente conocidas, en ese caso los tensores se emplean tambien para la descripcion de la
curvatura de variedades diferenciables con vistas al posterior estudio de las ecuaciones de Einstein,
que relacionan esta curvatura con la densidad de energa y momento presentes en la variedad. De
todas formas la teora de la relatividad no es el unico campo en que esta materia es importante.
El estudio de campos tensoriales en coordenadas generalizadas se aplica de manera rutinaria en
todas las areas de la fsica basadas en teoras de campos, por ejemplo este es el caso de areas como
la mecanica de fluidos (o en general la mecanica de medios continuos) o el electromagnetismo, y
por tanto es de gran interes no solo en fsica, sino tambien en ingeniera. Los tensores tambien se
emplean para describir operaciones de simetra de muchos sistemas fsicos, lo cual es importante ya
que normalmente la existencia de cierto grado de simetra en un sistema fsico tiene importantes
consecuencias en su dinamica. Esto es especialmente importante en diversas areas de la fsica, inclu-
yendo desde la mecanica cuantica (con aplicaciones, p. ej., en fsica molecular y estado solido) hasta
termodinamica de sistemas alejados del equilibrio (p. ej., dicho analisis explica el desacoplamiento
entre fuerzas y flujos generalizados de rango tensorial distinto en medios isotropos).
xi
xii PREFACIO
Gua de estudio
Los objetivos de esta parte del curso son, por tanto, familiarizarse con los conceptos necesarios
para operar con campos tensoriales en coordenadas generalizadas en espacios de Riemann de dimen-
sion arbitraria, comprendiendo el significado geometrico de los objetos y operaciones matematicas
empleados. Posiblemente el objetivo mas importante de esta parte del curso sea familiarizarse con
la derivada covariante, tanto en componentes holonomas como en componentes fsicas, que son las
empleadas generalmente en las aplicaciones en espacios Eucldeos. Por supuesto, para entender esta
parte es necesario estudiar antes algunos conceptos previos, para ello el material esta distribuido
de la siguiente forma:
Captulo 2: Se emplean algunos ejemplos fsicos para justificar el uso de tensores de rango mayor
que la unidad. Se generalizan los conceptos presentados en el primer captulo al caso de ten-
sores de orden arbitrario. En este apartado es muy importante familiarizarse con el concepto
de producto tensorial, tensor afn y producto de contraccion, que son la base sobre la que
trabajaremos el resto del curso. Como aplicacion directa de estos conceptos es importante
comprender y saber emplear los criterios de tensorialidad, introducidos en este captulo. Co-
mo ejercicio para esta parte se debe trabajar en la aplicacion de cambios de base y subida y
bajada de ndices (mencionados en el primer captulo) sobre tensores generales (en particular
deben estudiarse algunos ejemplos de rango superior a 2). Al finalizar este captulo tambien
debe estar totalmente dominado el uso del convenio de suma de Einstein y la manipulacion
de expresiones con ndices mudos.
Captulo 3: El concepto de tensor definido en el captulo 2 se generaliza aqu para incluir los
pseudotensores, de gran importancia en fsica (p. ej. el producto vectorial, el rotacional de
un campo vectorial, o el determinante del tensor metrico). En este apartado es especialmente
importante comprender la definicion tensorial del producto vectorial, que nos permitira poste-
riormente calcular productos vectoriales y rotacionales de campos vectoriales en coordenadas
generalizadas. Como aplicacion de los conceptos introducidos hasta el momento, en este tema
tambien es especialmente importante observar que los pseudotensores se transforman como
verdaderos tensores bajo cambios de base ortogonales (en particular bajo rotaciones de los
ejes). Al final de este apartado se incluye una introduccion mas o menos intuitiva al calculo
exterior, que queda fuera del temario de esta asignatura.
Captulo 4: Hasta este momento solo hemos hablado de tensores definidos sobre un espacio vecto-
rial. En este apartado se generaliza este concepto al espacio fibra, definido sobre una variedad
diferenciable. El calculo con campos tensoriales era el objetivo basico de esta parte del curso,
xiii
por tanto son muy importantes los conceptos de fibrado tangente y cotangente y sus bases
habituales, en particular las bases definidas por las tangentes a las lneas coordenadas (que
dan lugar a las componentes holonomas) y la correspondiente base de vectores tangentes uni-
tarios (que da lugar a las componentes fsicas). Como ejercicio para afianzar estos conceptos
en este tema se deben estudiar ejemplos practicos de cambios de base inducidos en los fibrados
tangente y cotangente cuando se realiza un cambio de coordenadas en la variedad de partida.
Los cambios de coordenadas mas habituales en el espacio tridimensional Eucldeo son espe-
cialmente importantes (es decir, el paso de coordenadas cartesianas a coordenadas cilndricas
y esfericas), aunque tambien deberan considerarse otros ejemplos mas complicados. Es muy
importante saber distinguir entre las componentes holonomas (co- y contra-variantes) y las
componentes fsicas, y tambien trabajar con ellas.
Captulos 5 y 6: Por ultimo llegamos al que era el objetivo principal del curso, la derivada co-
variante. Para comprender este concepto se estudia primero el transporte paralelo, ilustrado
con diversos ejemplos sobre variedades con y sin curvatura, la conexion de Levi-Civita y los
smbolos de Christoel. A continuacion se define el concepto de derivada covariante, tanto
en componentes holonomas como en componentes fsicas. Como ejercicio de aplicacion de
estos conceptos es importante estudiar la deduccion de las expresiones de los operadores dife-
renciales habituales en fsica (gradiente, divergencia, rotacional y laplaciano) en coordenadas
generalizadas, tanto en el caso de coordenadas generalizadas ortogonales como no ortogonales.
En particular es importante el caso de las coordenadas de uso mas extendido: cartesianas,
cilndricas y esfericas.
Tras esta primera parte del curso estamos en condiciones de poder calcular las expresiones de
los operadores diferenciales habituales en fsica en cualquier sistema de coordenadas generalizadas,
tanto en el espacio tridimensional Eucldeo habitual como en variedades diferenciables con metrica
de Riemann. Esto es interesante, por ejemplo, para analizar problemas de mecanica de fluidos o de
electromagnetismo empleando un sistema de coordenadas adaptado a la geometra del problema
(suponiendo que no haya singularidades geometricas, como esquinas o bordes, y siempre y cuando
la geometra no sea demasiado complicada). Como ejercicio de aplicacion de estos conceptos es
interesante la programacion del calculo de las expresiones de los operadores diferenciales habituales
en coordenadas generalizadas en un entorno de calculo simbolico, aunque el escaso tiempo de que
disponemos y el caracter algo avanzado de este problema lo desaconsejan, excepto para algunos
estudiantes avanzados que tengan suficiente experiencia en programacion.
Tras esta parte del curso estamos tambien en condiciones optimas para iniciar el estudio de la
segunda parte del curso: geometra diferencial, donde nos centraremos en el estudio de curvas y
superficies (incluyendo temas como geometra intrnseca, primera y segunda forma fundamental,
operador de Weingarten, etc.). El material para la segunda parte es el libro de Martin M. Lips-
chultz mencionado en la gua del curso (Dierential Geometry, editado por McGraw-Hill). Tras
esta segunda parte del curso estaremos en condiciones de estudiar la teora general de la relatividad
de Einstein, en la que todas las nociones aprendidas en este curso (y algunas mas no incluidas) se
emplean de manera rutinaria.
Agradecimientos
Nos gustara dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y
el proyecto GNU por poner a nuestra disposicion herramientas informaticas gratuitas de verdadera
xiv PREFACIO
calidad. Este documento ha sido elaborado ntegramente con el procesador de textos LATEX 2 , los
esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa
de diseno xfig, ambos programas van incluidos en cualquier distribucion del sistema operativo
gratuito Linux.
Captulo 1
Espacios vectoriales
Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continua-
cion revisaremos algunos de los conceptos mas importantes relativos a vectores, cuya generalizacion
al caso de tensores sera el objeto de esta parte del curso. Comenzamos revisando brevemente los
conceptos de vector, espacio vectorial, normas, distancias, productos escalares, bases y aplicaciones
lineales, ya estudiados en cursos anteriores. Posteriormente veremos como cambian las componen-
tes de un vector, o de una aplicacion lineal, al realizar un cambio de base en el espacio, esto nos
servira de punto de partida para definir el concepto de tensor en el proximo captulo.
1
2 CAPITULO 1. ESPACIOS VECTORIALES
accion de la aplicacion lineal sobre cualquier base del espacio. Lo que diferencia a un vector (o a una
matriz) de una mera caja de numeros es que los vectores son objetos geometricos pertenecientes a
un espacio vectorial, de tal forma que sus componentes son las proyecciones de estos vectores sobre
una determinada base del espacio, y las matrices por su parte son las proyecciones de la actuacion
de una determinada aplicacion lineal sobre una base del espacio vectorial. Dado un vector (o una
aplicacion lineal) perteneciente a un cierto espacio vectorial, si aplicamos un cambio de base en
el espacio el vector (o la aplicacion lineal) sigue siendo el mismo, pero sus componentes cambian
siguiendo una ley de transformacion que esta determinada por el cambio de base que hayamos
aplicado, tal y como veremos en este captulo. Es muy importante que estos conceptos queden
claros, ya que son la base indispensable para comprender los tensores.
Normalmente los vectores que se emplean en fsica pertenecen a espacios vectoriales normados,
es decir, espacios vectoriales sobre los que se ha definido una operacion, llamada norma, que permite
medir la longitud de los vectores. Se entiende que esta longitud esta medida en las unidades
que tengan los vectores del espacio en consideracion (p. ej. velocidad, aceleracion, fuerza, campo
electrico, . . . ), de forma que no tiene por que ser una longitud en el sentido coloquial del termino. La
operacion norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio,
dada por la norma del vector diferencia. Esto nos permite juzgar si dos vectores de este espacio
son proximos o no y tambien nos permite juzgar si una sucesion de elementos de este espacio es
convergente o no, dependiendo de si la distancia entre dos elementos consecutivos de la sucesion
tiende a cero. La operacion distancia dota al conjunto de vectores que forma el espacio vectorial de
una topologa inducida por la metrica, convirtiendo el espacio vectorial en un objeto con significado
geometrico, apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios
con una metrica diferente y por extension nos permite tambien imaginar espacios similares con un
numero de dimensiones diferente a las 3 a las que estamos habituados,
En el contexto de la fsica es habitual definir como magnitudes escalares a aquellas para cuya
especificacion completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la
masa, la carga electrica o el tiempo en la mecanica Newtoniana. Por oposicion a las anteriores, se
definen como magnitudes vectoriales a aquellas para las que es preciso especificar, ademas de su
magnitud, una direccion y un sentido. De esta forma resulta muy natural describir como vectores
la posicion, la velocidad, la aceleracion, o las fuerzas. Estas magnitudes fsicas, que nos resultan
tan conocidas y naturales, hacen que el concepto de vector resulte facil e intuitivo. Tambien resulta
intuitivo el significado de las operaciones basicas definidas sobre los vectores. Por ejemplo, si un
movil esta en el punto A y realiza un movimiento dado por el vector B, la posicion final del movil
esta dada por A + B, si sobre un movil se aplican simultaneamente las fuerzas f 1 y f 2 el movil se
ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir
al punto B tendremos que desplazarnos segun el vector dado por la diferencia B A.
f1
A
A+B
f1 + f2
f2
x, y E, ! z = x + y E (1.1)
Propiedad conmutativa
x, y E, x+y =y+x (1.2)
Propiedad asociativa
x, y, z E, (x + y) + z = x + (y + z) (1.3)
Elemento nulo: Existe un unico vector nulo (0) en E tal que para cualquier x de E se
cumple 0 + x = x
! 0 E / x E, 0 + x = x (1.4)
Elemento opuesto: Para cualquier x de E existe un unico vector x de E tal que su
suma con x es el elemento nulo
x E, ! x E / x + (x) = 0 (1.5)
Producto por escalares: Para cualquier vector x perteneciente a E y cualquier escalar per-
teneciente al cuerpo K existe un unico vector perteneciente a E dado por el producto x
x E, K, ! z = x E (1.6)
La operacion producto por escalares cumple las siguientes propiedades:
4 CAPITULO 1. ESPACIOS VECTORIALES
Propiedad asociativa
x E, , K, (x) = () x (1.7)
x E, , K, ( + ) x = x + x (1.8)
x, y E, K, (x + y) = x + y (1.9)
x E, 1x = x (1.10)
x E, 0x = 0 (1.11)
x E, 1x = x (1.12)
Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composicion
de movimientos, o de fuerzas, que a todos nos resulta familiar. Decamos al principio de este
apartado que el objeto de los escalares era formar vectores de como combinaciones lineales de otros
vectores del espacio. Las propiedades anteriores nos garantizan que si x e y son vectores de E
(x, y E) y y son escalares de K (, K) entonces la combinacion lineal x + y es un
vector de E. En el apartado siguiente emplearemos esta propiedad para definir el concepto de base
del espacio vectorial.
1 e1 + 2 e2 + + n en = 0 (1.13)
y en caso contrario se dice linealmente dependiente. Veamos el significado de esta definicion. Por
un lado es obvio que la Ec. (1.13) siempre tiene la solucion trivial 1 = 2 = = n = 0; por
otra parte, si esta ecuacion tiene alguna otra solucion diferente de la trivial lo que sucede es que,
en ese caso, podemos despejar uno de estos vectores como combinacion lineal de los restantes. Si
la unica solucion de Ec. (1.13) es la solucion trivial, entonces resulta imposible despejar ninguno
de los vectores {e1 , . . . , en } como combinacion lineal de los restantes, esto es lo que significa que el
conjunto {e1 , . . . , en } sea linealmente independiente.
x = 1 e1 1 R (1.14)
nos genera la recta que pasa por el origen 0 y que tiene direccion dada por e1 . Para cualquier vector
x que pertenezca a esta recta el sistema {e1 , x} es linealmente dependiente, lo que implica que x es
sencillamente proporcional a e1 . Supongamos ahora un vector e2 que no pertenezca a la envolvente
lineal de e1 . En este caso el conjunto {e1 , e2 } es linealmente independiente, y la envolvente lineal
de este conjunto, definida por los vectores x E dados por
x = 1 e1 + 2 e2 1 , 2 R (1.15)
nos genera el plano que pasa por el origen y contiene a e1 y e2 . Para cualquier vector x contenido en
este plano el conjunto {e1 , e2 , x} es linealmente dependiente, lo que indica que x puede escribirse
como combinacion lineal de {e1 , e2 }. Si anadimos otro vector e3 que no pertenezca a este plano el
conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio
tridimensional engendrado por los vectores {e1 , e2 , e3 }, de tal forma que cualquier vector de este
espacio puede construirse como combinacion lineal de {e1 , e2 , e3 }.
En principio podramos seguir anadiendo sucesivamente mas vectores ei E linealmente in-
dependientes a todos los anteriores, pero si nuestro espacio vectorial E es de dimension finita (n)
llega un momento que la envolvente lineal del conjunto {e1 , . . . , en }, dada por
x = 1 e1 + 2 e2 + + n en 1 , 2 , . . . , n R (1.16)
coincide con todo el espacio vectorial E. En ese caso resulta imposible anadir ningun elemento
en+1 E (distinto de 0) que sea linealmente independiente a todos los anteriores.
En consecuencia, dado un espacio vectorial E de dimension finita n se define como base de E a
cualquier conjunto de n vectores linealmente independientes {e1 , . . . , en }, todos ellos pertenecientes
a E y distintos de 0. La propiedad importante que define a una base es que para cualquier x E el
conjunto {e1 , . . . , en , x} es linealmente dependiente, lo que implica que x puede expresarse como
combinacion lineal de {e1 , . . . , en }
x E x = x1 e1 + x2 e2 + + xn en (1.17)
{ }
y se definen los numeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x res-
pecto a la base {e1 , . . . , en }. Por otra parte, el cardinal del mayor conjunto de vectores linealmente
independientes que podamos tomar en el espacio vectorial E se define como la dimension del es-
pacio vectorial. En la discusion anterior hemos asumido tacitamente que el espacio vectorial E
estaba definido sobre el cuerpo de los reales R, para simplificar la exposicion. En un caso mas
general podemos repetir los mismos pasos haciendo que los numeros i tomen valores en el cuerpo
K correspondiente, y el resultado final es totalmente analogo.
En este curso solo estudiaremos espacios vectoriales de dimension finita. En algunos casos con-
sideraremos una dimension finita arbitraria (n) y en otros nos centraremos en el caso especialmente
6 CAPITULO 1. ESPACIOS VECTORIALES
relevante del espacio tridimensional. De todas formas conviene recordar que tambien existen es-
pacios vectoriales de dimension infinita, de gran importancia en ciertas areas de las matematicas
(p. ej. en analisis funcional) y tambien extremadamente relevantes en fsica, por sus aplicaciones
en el estudio de ecuaciones diferenciales y en mecanica cuantica. Como ejemplo de espacio vecto-
rial de dimension infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son
funciones. Por ejemplo, es muy facil ver que el conjunto de polinomios de una variable (x)
p(x) = a0 + a1 x + a2 x2 + a3 x3 + + an xn (1.18)
cumple todas las propiedades necesarias para ser un espacio vectorial. Tambien es muy facil ver que
las funciones xn y xm son linealmente independientes siempre que n = m, esto parece indicar que
podramos tomar como base { de este espacio funcional
} al conjunto dado por las sucesivas potencias
2 3 n
enteras de la variable x: 1, x, x , x , . . . , x , . . . . Pero en ese caso cual es el valor maximo de n
que debemos tomar para garantizar que cualquier polinomio de x esta incluido en la envolvente
lineal de la base? Claramente ningun valor finito de n es suficiente, por tanto la dimension de este
espacio vectorial es infinita. Los espacios funcionales tienen (normalmente) infinitas dimensiones, y
esa circunstancia hace que en ellos aparezcan otros problemas que no aparecen en los de dimension
finita.
Volviendo a los espacios de dimension finita, una propiedad interesante de las envolventes lineales
de los sucesivos conjuntos de vectores que hemos ido considerando ({e1 }, {e1 , e2 }, {e1 , e2 , e3 }, . . . ,
{e1 , . . . , en }), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que ademas
estan contenidos en el espacio vectorial E y por tanto se denominan subespacios vectoriales. La
demostracion de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial
se deja para los ejercicios. Otra propiedad importante cuya demostracion se deja para los ejercicios,
es que la descomposicion de cualquier vector x como combinacion lineal de la base (Ec. (1.17)) es
unica. Por ultimo, dada cualquier base {e1 , . . . , en } del espacio E, se dice que E se descompone en
suma directa () de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)
n
E= envolvente lineal de ei (1.19)
i=1
donde la suma directa de dos subespacios vectoriales independientes E1 y E2 (es decir, cuya inter-
seccion se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que
pueden definirse como combinacion lineal de vectores de E1 y E2 .
En general, dado un espacio vectorial con n dimensiones, se llama base canonica a la formada
por los vectores
e1 = {1, 0, 0, . . . , 0} (1.20)
e2 = {0, 1, 0, . . . , 0} (1.21)
... ... ... ... ... ... (1.22)
en = {0, 0, 0, . . . , 1} (1.23)
Esta sera la base que emplearemos constantemente. Uno de los temas centrales del estudio de
tensores es como cambian las componentes de diversos objetos definidos en un espacio vectorial
(vectores, aplicaciones lineales, tensor metrico, etc.) al realizar un cambio de base en el espacio, es
decir, al pasar de la base canonica a otra base distinta.
1.2. METRICA 7
1.2. Metrica
1.2.1. Espacios vectoriales normados
El siguiente ingrediente que necesitamos para dotar al espacio vectorial E de significado geometri-
co es definir una operacion distancia d(, ). Para ello basta con disponer de una funcion, llamada
norma , que nos permita medir la longitud de cada vector x de E. Una vez definida esta
funcion, la distancia entre cualquier par de vectores x, y E (que denotaremos por d(x, y)) puede
definirse, p. ej., como la norma del vector diferencia
x, y E, d(x, y) y x (1.24)
Para que la funcion distancia se corresponda con lo que intuitivamente se entiende por distancia
esta funcion debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser
igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad
triangular y que la distancia de x a 0 debe ser || veces la distancia de x a 0 (para cualquier
vector x E y cualquier escalar K, siendo || el valor absoluto de ). Como consecuencia se
define la operacion norma como cualquier funcion definida sobre el espacio vectorial E que
cumpla las siguientes propiedades
La operacion norma es definida positiva
x E, x 0 (1.25)
x E, K, x = || x (1.27)
Desigualdad triangular
x, y E, x + y x + y (1.28)
Una vez definida una operacion norma, la distancia entre dos vectores cualesquiera del espacio
puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.24)), aunque esta no es
la unica posibilidad. En general puede tomarse como operacion distancia a cualquier funcion que
cumpla las siguientes propiedades
La operacion distancia es definida positiva
x, y E, d(x, y) 0 (1.29)
Dos vectores separados por una distancia nula son el mismo vector
Simetra
x, y E, d(x, y) = d(y, x) (1.31)
8 CAPITULO 1. ESPACIOS VECTORIALES
Desigualdad triangular
En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.24)),
que es la opcion mas habitual, las propiedades que cumple la operacion norma garantizan que la
operacion distancia d(, ) cumple las propiedades anteriores. Un espacio vectorial sobre el que se
ha definido una operacion norma se denomina espacio normado, los espacios vectoriales sobre los
que se ha definido una operacion distancia se denominan espacios metricos.
Dado el espacio vectorial E sobre el cuerpo K, se define la operacion producto escalar ( , ) como
una funcion definida sobre E E con imagen en K
x1 , x2 E, (x1 , x2 ) K (1.34)
de donde se deduce
de donde se deduce
x E, (x, x) 0 (1.42)
El unico vector con producto escalar por s mismo nulo es el vector nulo
x y xy cos (1.44)
de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto
escalar x ei (con ei = 1) corresponde a la proyeccion ortogonal de x sobre la direccion definida
por el vector unitario ei . Si K = R y la metrica de E es eucldea esta definicion de x y se
corresponde con la definicion clasica del angulo formado por estos dos vectores. Definimos tambien
que dos vectores son ortogonales si y solo si su producto escalar es nulo
x y si y solo si x y = 0 (1.45)
Las propiedades que cumple la operacion producto escalar permiten definir una operacion norma
de manera natural por medio de
x (x, x)1/2 (1.46)
A partir de las propiedades que cumple la operacion producto escalar es muy facil comprobar que
la anterior relacion define una norma.
La existencia de una funcion producto escalar implica que podemos definir una funcion norma
por medio de Ec. (1.46), sin embargo el recproco no es cierto. Es decir, dada una funcion norma
no esta garantizado que sea posible definir una operacion producto escalar compatible con esta
norma. Existen funciones norma que no provienen de (o que no son compatibles con) ningun
producto escalar. No obstante los espacios vectoriales que suelen emplearse en fsica se caracterizan
precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de
espacios vectoriales se denominan en general espacios pre-Hilbert, y se reserva la denominacion
espacios de Hilbert para aquellos espacios que, ademas de tener una norma inducida por el producto
escalar, son completos (o de Banach). Donde se entiende por espacio de Banach (o completo) aquel
en el que para toda sucesion convergente de vectores enteramente contenida en el espacio (es decir,
para toda sucesion de Cauchy), el lmite al que tiende la sucesion tambien esta contenido en el
espacio. Para darse cuenta del significado de esta propiedad es interesante considerar el ejemplo del
espacio funcional dado por los polinomios de una variable a los que hacamos referencia antes. Para
ver que este espacio no es completo podemos considerar, p. ej., el desarrollo en serie de Taylor de la
funcion sen x, hasta orden N y centrado en el punto x = 0, que definimos como sN (x). Aplicando
la definicion de desarrollo en serie de Taylor se encuentra que dicho desarrollo esta dado por:
N
(1)n 2n+1
sN (x) = x
(2n + 1)!
n=0
Como es bien sabido, en el lmite N este desarrollo converge uniformamente a sen x (x R).
Para cualquier N finito este desarrollo es un polinomio, por tanto la sucesion {si (x)}N
i=1 (N =
10 CAPITULO 1. ESPACIOS VECTORIALES
Espacios de Banach
(completos)
Consideremos el producto escalar de dos vectores cualesquiera x e y. Dada una base cual-
quiera del espacio vectorial los vectores x e y estan dados por sus correspondientes desarrollos en
componentes
x = x1 e1 + x2 e2 + + xn en , y = y 1 e1 + y 2 e2 + + y n en (1.47)
Aplicando las propiedades de linealidad del producto escalar, x y puede ponerse como
n
n
xy = gij xi y j (1.48)
i=1 j=1
donde hemos definido el tensor metrico gij como la tabla de todos los productos escalares de los
vectores de la base
gij ei ej , i, j, = 1, . . . , n (1.49)
1.2. METRICA 11
Mas adelante veremos por que denominamos tensor a la lista de productos escalares que hemos
definido como gij , lo que debe quedar claro de momento es que gij contiene toda la informacion
necesaria para calcular el producto escalar de cualquier par de vectores del espacio en consideracion.
Por otra parte, en el caso de un espacio vectorial sobre los reales es evidente que el tensor metrico
debe ser simetrico
gij = gji (1.50)
ya que en ese caso se cumple ei ej = ej ei (i, j, ver Ec. (1.36)).
cualquier monomio donde aparezca un ndice repetido representa la suma del monomio res-
pecto al ndice repetido, para todos los valores posibles del ndice.
x y = gij xi y j (1.52)
Aij xj = y i (1.54)
el ndice j es mudo pero el ndice i es libre. La expresion anterior representa la componente i del
vector y, resultante de aplicar la aplicacion lineal A (con matriz asociada Aij ) sobre el vector x (con
componentes xj ), es decir, la expresion anterior es el desarrollo en componentes de A(x) = y. En
dicha expresion no hay ningun monomio en el que el ndice i este repetido, esto nos indica que no
se realiza la suma respecto del ndice i, y por tanto el resultado de esta operacion depende del valor
que asignemos a este ndice (para i = 1 obtenemos la componente y 1 , para i = 2 la componente y 2 ,
etc.).
En las expresiones anteriores algunos ndices son sub-ndices y otros super-ndices, y puede
apreciarse que siempre que aparece un ndice repetido este aparece 1 vez como sub-ndice y 1
vez como super-ndice. Como veremos a continuacion esto no es fruto de la casualidad, sino que
12 CAPITULO 1. ESPACIOS VECTORIALES
responde a un formalismo que emplearemos extensivamente a lo largo del curso. El uso de subndices
y superndices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a
cambios de base que existen (covariante y contravariante), tal y como veremos al final de este
captulo.
A partir de este momento supondremos que se aplica el convenio de suma de Einstein para
cualquier expresion en la que aparezca un monomio con ndices repetidos, a menos que se diga
explcitamente lo contrario.
Los espacios dotados de una metrica Riemanniana se llaman espacios de Riemann o Riemannianos.
Un caso particular de estos espacios son los espacios Eucldeos, definidos por la metrica Eucldea
habitual. En un espacio Eucldeo la distancia entre los puntos x e y esta dada por la longitud de
la lnea recta que une estos puntos, cuyo valor en un sistema de coordenadas cartesianas puede
calcularse por medio del teorema de Pitagoras, que para un espacio n-dimensional toma la forma
d(x, y) = (y 1 x1 )2 + (y 2 x2 )2 + + (y n xn )2 (1.55)
o lo que es lo mismo, el elemento diferencial de longitud (ds) esta dado (en n dimensiones) por
( )2 ( )2
(ds)2 = dx1 + dx2 + + (dxn )2 (1.56)
x y = x1 y 1 + x2 y 2 + + xn y n (1.57)
y corresponde al caso particular en el que el tensor metrico esta dado por la matriz identidad
gij = ij i, j, = 1, . . . , n (1.58)
1.3. ESPACIOS EUCLIDEOS Y DE RIEMANN 13
En general se define como espacio Eucldeo a cualquier espacio Riemanniano en el que existe
al menos una base tal que el tensor metrico en esa base esta dado por la delta de Kronecker. Los
espacios Riemannianos en los que no existe ninguna base en la que gij sea la identidad se dicen no
Eucldeos. En general, dependiendo de la base que tomemos el tensor metrico puede dejar de ser la
identidad incluso si el espacio es Eucldeo (esto es lo que sucede si tomamos como base un conjunto
de vectores que no sean mutuamente ortogonales).
xj = (ej , x) ; j = 1, . . . , n (1.63)
De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno
de los tj su proyeccion sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j 1) y
posteriormente normalizando. Dejamos para los ejercicios la demostracion de que este procedimiento
genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales,
tambien son linealmente independientes, y como son combinacion lineal de los ti de partida y el
cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la
base de partida.
a : x a (x) R (1.65)
tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual E . En espacios de
dimension finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial
de partida. En este caso se deduce el teorema de Riesz-Frechet, segun el cual
dada la aplicacion lineal a del espacio dual E (a E ), existe un unico vector a del
espacio E (a E) tal que el resultado de aplicar a sobre x (denotado por a (x)) coincide
con el producto escalar a x
lineal a de E con el vector a de E (y viceversa) depende del producto escalar que estemos
considerando en E, de modo que distintos productos escalares nos llevaran a asociar elementos
distintos.
Una vez definido el espacio dual E podemos considerar el espacio de las aplicaciones lineales
definidas sobre E , es decir, el dual del dual de E. En este caso se puede comprobar que el dual del
dual E es isomorfo al espacio de partida E, y que el isomorfismo que relaciona cada elemento de
E con uno de E es independiente de cual sea el producto escalar que estemos considerando en E,
motivo por el cual este isomorfismo se denomina isomorfismo canonico. Como resultado tenemos
que el espacio E coincide con el espacio de partida E, independientemente del producto escalar
considerado.
Volvamos ahora a la cuestion del calculo de las componentes de vectores en bases no ortonorma-
les. Dado un vector x de E y una base cualquiera {ei }ni=1 , la aplicacion que genera la componente xi
de x respecto de esta base es una aplicacion lineal, que llamaremos ei , de forma que la componente
xi de x esta dada por el resultado de aplicar ei sobre dicho vector
ei (x) = xi (1.67)
A primera vista esta afirmacion podra parecer arbitraria, sin embargo es totalmente natural.
La aplicacion que genera las componentes de un vector respecto de una base cualquiera debe ser
una aplicacion continua y diferenciable. Esto es necesario si queremos que las componentes de
cualquier vector varen de forma continua y diferenciable al variar el vector de forma continua y
diferenciable. Tambien parece logico exigir que el vector nulo tenga todas sus componentes nulas,
independientemente de la base considerada. Por otra parte, tambien exigimos que las operaciones
de suma de vectores y multiplicacion por escalares puedan calcularse componente a componente en
cualquier base. El resultado de estas condiciones es que la aplicacion que produce la componente
del vector x respecto del elemento ei de cualquier base tiene que ser necesariamente una aplicacion
lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Frechet, para cada aplicacion
lineal ei E existe un unico vector ei E tal que xi = ei (x) esta dado sencillamente por el
producto escalar xi = ei x.
El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base
cualquiera {ei }ni=1 son linealmente independientes y forman, por tanto, una base del espacio dual,
llamada base dual, dada por {ei }ni=1 . Claramente la base dual cumple
Segun hemos visto, dada una base {ei }ni=1 cualquier vector del espacio puede expresarse como
combinacion lineal de los elementos de la base. Los vectores de la base son vectores del espacio,
16 CAPITULO 1. ESPACIOS VECTORIALES
luego tambien pueden desarrollarse en terminos de la base. Consideremos el primero de los vectores
de la base (e1 ). Logicamente, el desarrollo de este vector en terminos de la base de la que forma
parte esta dado por el mismo vector: e1 , de modo que su coordenada respecto a e1 es la unidad
y sus coordenadas respecto a todos los vectores de la base restantes son nulas. Recordando que
ei (ej ) representa la componente i del vector j de la base {ei }ni=1 y repitiendo el razonamiento
anterior vemos que esta componente sera la unidad para i = j y nula i = j, de donde se deduce
la importante relacion ei (ej ) = ji . Dicha expresion nos permitira en el futuro calcular la base dual
a cualquier base dada, as como el desarrollo en componentes de cualquier vector del espacio.
Como consecuencia, en un espacio vectorial E (no necesariamente Eucldeo), dada una base
cualquiera ({ei }ni=1 ) existe otra base, llamada base dual ({ei }ni=1 ), tal que ei ej = ji . Proyectando
entonces el desarrollo en componentes de x (Ec. (1.17)) sobre la direccion ej de la base dual y
aplicando las relaciones Ec. (1.68), encontramos que la componente xi de x respecto de {ei }ni=1
esta dada por la proyeccion ortogonal de x sobre el vector ei de la base dual. En general la base dual
de una base dada cualquiera sera otra base distinta. En el caso particular de un espacio vectorial
Eucldeo, cuando se usa una base ortonormal se da la circunstancia excepcional de que la base dual
coincide con la base de partida. Normalmente esto no se cumplira, en el caso general la base dual
a una base dada sera diferente de la base dada. Mas adelante veremos como calcular cada una de
estas bases cuando se conoce la otra.
Dejamos para los ejercicios la demostracion de las siguientes propiedades importantes: la base
dual siempre existe y es unica; si {ei }ni=1 es la base dual de {ei }ni=1 , entonces {ei }ni=1 es la base
dual de {ei }ni=1 (es decir, el dual del dual nos devuelve a la base de partida).
Normalmente emplearemos subndices para numerar los vectores de la base de partida, y su-
perndices para numerar los vectores de la base dual. Como ya se ha mencionado, el uso de sub-
y super-ndices no es arbitrario, sino que corresponde a los comportamientos co- y contra-variante
de estos objetos al aplicar un cambio de base, tal y como veremos a continuacion.
ei = g ij ej (1.69)
Nos queda por determinar cuales son las componentes de este objeto g ij . Para ello basta con
sustituir en la propiedad que define a la base dual (Ec. (1.68)), de donde deducimos
g ik gkj = ji (1.70)
por tanto la matriz g ij es sencillamente la inversa del tensor metrico gij (recordar que en espacios
Riemannianos el tensor metrico siempre es invertible det gij = 0). Por tanto, la inversa del tensor
metrico aplicada sobre la base de partida nos genera la base dual. Esta relacion nos indica de forma
trivial que en el caso de un espacio Eucldeo, la base dual de una base ortonormal coincide con ella
misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.69)) en ei ej es inmediato demostrar
que
ei ej = g ij , i, j = 1, . . . , n (1.71)
1.4. CAMBIOS DE BASE 17
por tanto la inversa del tensor metrico nos proporciona la tabla de productos escalares de los
vectores de la base dual. En otras palabras, el objeto g ij es el tensor metrico de la base dual, o
tensor metrico dual.
Por ultimo, dado que son vectores del mismo espacio tambien podemos escribir los vectores
de la base de partida como combinacion lineal de la base dual. En este sentido dejamos para los
ejercicios demostrar que el tensor metrico aplicado sobre la base dual nos genera la base de partida
ei = gij ej (1.72)
veamos ahora como se calculan las componentes de una aplicacion lineal A, que transforma vectores
de E en vectores de E:
A : x A(x) = y E (1.74)
Escribiendo los vectores x e y en componentes encontramos
( )
A x j ej = y k ek (1.75)
Aij xj = y i (1.77)
es decir, como el producto de la matriz Aij por el vector columna xj . Por tanto, dada una aplicacion
lineal A y una base cualquiera {ei }ni=1 (no necesariamente ortonormal), la matriz Aij correspondiente
a esta aplicacion esta dada por ( )
Aij ei , A(ej ) (1.78)
donde el super-ndice i recorre las filas y el sub-ndice j las columnas de la matriz Aij . En el caso
en que el espacio E sea Eucldeo y la base {ei }ni=1 sea ortonormal (y solo en ese caso) tendremos
que ei = ei , en un caso general ei estara dado por el correspondiente vector de la base dual.
ley de transformacion que siguen las componentes de un vector se deduce al imponer que el vector
es el mismo independientemente de cual sea la base a la que esten referidas sus componentes
x = xi ei = xi ei (1.79)
Para ver que forma tiene la aplicacion de cambio de base C recordamos que los vectores de la
base nueva pertenecen a E, por tanto pueden ponerse como combinacion lineal de los vectores de
la base antigua
ei = eji ej (1.81)
donde se aplica el convenio de suma de Einstein para el ndice mudo j. En la anterior expresion
hemos denominado eji a la componente contravariante j del vector ei de la base nueva, expresado
en terminos de la base antigua. Segun hemos visto en el apartado precedente, estas componentes
estan dadas por el producto escalar de ei por el correspondiente vector de la base dual antigua ej
( ) ( )
eji = ej , ei = ej , C(ei ) = Cij (1.82)
ei = Cij ej , i = 1, . . . , n (1.83)
Esto nos indica que la aplicacion cambio de base esta descrita por una matriz con componentes Cij ,
dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Si escribimos las
componentes contravariantes como vectores columna, tal y como es habitual, entonces encontramos
que la matriz del cambio de base esta formada por las componentes de los vectores de la base nueva
respecto a la base antigua, escritos como vectores columna
( )
C = e1 e2 . . . en (1.84)
Cuando se hace un cambio de base, para que la base nueva sea una base valida es necesario
que sus vectores sean linealmente independientes, lo cual queda garantizado si el determinante
de la matriz del cambio de base es distinto de cero (en caso contrario el cambio de base no es
valido). Suponiendo entonces que det C = 0 tenemos que la matriz del cambio C es invertible. Para
simplificar las expresiones definimos la matriz D como la inversa de C
ei = Dij ej , i = 1, . . . , n (1.86)
que nos proporciona la expresion de los vectores de la base antigua como combinacion lineal de la
base nueva.
1.4. CAMBIOS DE BASE 19
ei = Cji ej (1.89)
que nos proporciona los vectores de la base dual antigua como combinacion lineal de los vectores
de la base dual nueva.
Las componentes de un vector respecto de una base cualquiera tienen compontamiento contra-
variante y se denominan componentes contravariantes, mientras que las componentes respecto a la
base dual de una base dada tienen comportamiento covariante, y se denominan componentes cova-
riantes. En general las componentes co- y contra-variantes son distintas. En el caso particular de
un espacio Eucldeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes
de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distincion entre
ellas. En el contexto del calculo tensorial tendremos siempre en mente el caso general de un espacio
vectorial no necesariamente Eucldeo, por tanto es fundamental no confundir las componentes de
uno y otro tipo.
La relacion existente entre los vectores de la base de partida y la base dual y viceversa (Ecs.
(1.69) y (1.72)) nos permiten calcular las componentes co-variantes de un vector a partir de sus
componentes contravariantes relativas a cualquier base (y viceversa). El resultado es
xi = gij xj , xi = g ij xj (1.93)
(dejamos la demostracion para los ejercicios) que ilustra la conocida propiedad de subida y bajada
de ndices por medio del tensor metrico y su inversa, que emplearemos con mucha frecuencia a lo
largo del curso.
Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguien-
te: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto
escalar x y puede calcularse indistintamente segun cualquiera de las expresiones siguientes
x y = gij xi y j = g ij xi yj = xi yi = xi y i (1.94)
Observese que las dos ultimas expresiones son analogas a la que encontraramos al usar una base
ortonormal en el caso de una espacio vectorial Eucldeo, sin embargo x y = xi yi = xi y i es correcto
independientemente de cual sea la base y de si el espacio es o no Eucldeo.
donde Aij , xj e y i son las componentes de A, x e y respecto a la base antigua ei y Aij , xj e y i son las
componentes respecto a la base nueva ei , definida por medio del cambio Ec. (1.83). Sustituyendo la
ley de transformacion de las componentes de un vector (Ec. (1.90)) es inmediato deducir la relacion
que todos conocemos
Aij = Dki Akl Cjl , Aij = Cki Akl Djl (1.96)
Tambien podemos llegar al mismo resultado sustituyendo la ley de transformacion de los vectores
de la base (de partida y dual) en la expresion analoga a Ec. (1.78) pero en terminos de la base
nueva, es decir ( )
Aij ei , A(ej ) (1.97)
Por tanto, vemos que la matriz correspondiente a una aplicacion lineal es un objeto 1-covariante
1-contravariante, ya que tiene un ndice de cada tipo.
1.4. CAMBIOS DE BASE 21
Este resultado indica que gij es un objeto 2-covariante, ya que se transforma aplicando 2 veces
la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de
la matriz del cambio.
Transformaciones ortogonales
A lo largo de este curso veremos con mucha frecuencia como se comportan las componentes
de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base
totalmente generales, descritos por la matriz del cambio C (Ec. (1.84)) y su correspondiente in-
versa D C 1 (Ec. (1.85)). En un cambio de base general la matriz inversa D no coincide con la
traspuesta C 1 = C T , la excepcion a esta regla esta dada por las conocidas transformaciones orto-
gonales en espacios Eucldeos. Para evitar confusiones en este sentido, vamos a ver a continuacion
que tipo de transformaciones cumplen la relacion excepcional C 1 = C T .
Se denomina transformacion unitaria (U ) a cualquier aplicacion que preserva los productos
escalares para todo par de vectores x e y pertenecientes a un espacio vectorial E
Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transfor-
maciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales.
Aplicando la relacion que define las transformaciones unitarias (Ec. (1.101)) puede demostrarse
facilmente que en un espacio vectorial Eucldeo la matriz de una transformacion unitaria respecto
de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple:
( )i
U 1 = U , U 1
T j
en componentes j
= Ui (1.102)
T
donde U se denomina matriz adjunta de U y esta dada por la traspuesta del complejo conjugado
de U . Si el espacio E esta definido sobre el cuerpo de los reales, entonces la anterior relacion se
simplifica a
( 1 )i
U 1 = U T , en componentes U j
= Uij (1.103)
Este es el unico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la
relacion Ec. (1.103) se denominan matrices ortogonales.
Por su propia definicion, esta claro que en un espacio vectorial Eucldeo las aplicaciones unitarias
transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de
transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C
coincide con C T solo si la base nueva es el resultado de aplicar una transformacion ortogonal sobre
la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes
operaciones:
rotaciones (rotacion de los vectores de la base un cierto angulo respecto a un eje dado que
pase por el origen),
inversiones (reflexion de los vectores de la base segun un determinado plano que pase por el
origen),
Si el cambio de base C es ortogonal entonces det(C) = 1. Los cambios de base con det(C) = +1
corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base,
mientras que los cambios con det(C) = 1 corresponden a inversiones o a permutaciones con
paridad negativa.
1.5. PROBLEMAS 23
En la practica los cambios de base ortogonales se emplean con muchsima frecuencia, pero no
son los unicos posibles. Por ejemplo, el cambio de la base canonica de R3 , {i, j, k}, a la base dada
por {2i, 2j, 2k} (que sigue siendo una base ortogonal pero no ortonormal), no es un cambio de base
ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no
ortogonales.
1.4.5. Resumen
En este apartado hemos visto las leyes de transformacion de los 3 tipos de tensores mas habitua-
les: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2 (aplicaciones
lineales y tensor metrico); y los 2 tipos de comportamiento posibles bajo cambios de base: covarian-
te y contravariante. Los resultados obtenidos son validos para un espacio vectorial de dimension
finita arbitraria n, dotado de una metrica de Riemann no necesariamente Eucldea. La siguiente
tabla (C. 1.1) resume los tipos de tensores que hemos visto hasta ahora y su comportamiento bajo
cambios de base:
Tensores de orden 2
orden tipo ley de transformacion
0 escalares invariantes
vector contravariante xi = Dji xj
1
vector covariante xi = Cij xj
aplicaciones lineales Aij = Dki Cjl Akl
2 tensor metrico gij = Cik Cjl gkl
tensor metrico dual g ij = Dki Dlj g kl
Cuadro 1.1: Comportamiento de tensores de orden 2 bajo cambios de base (ei = Cij ej ,
D C 1 ).
En los captulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden
r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operacio-
nes de calculo (derivacion e integracion) con campos tensoriales de orden arbitrario. Por tanto es
fundamental comprender bien todos los conceptos introducidos en este captulo.
1.5. Problemas
P.1.1. Demostrar que para cualquier pareja de vectores x, y E existe un unico z E tal que
x=y+z
0x = 0
24 CAPITULO 1. ESPACIOS VECTORIALES
(1) x = (x)
P.1.4. Demostrar que la envolvente lineal de cualquier conjunto de vectores {e1 , . . . , ep } E (con
p n, siendo n la dimension de E) es un espacio vectorial.
P.1.6. Dado un vector cualquiera x E y una base {e1 , . . . , en } de E, demostrar que la descompo-
sicion de x como combinacion lineal de la base (Ec. (1.17)) es unica.
P.1.10. Dado el espacio vectorial E definido sobre el cuerpo de los numeros complejos C, demostrar
que x E el producto escalar x x es real (para cualquier producto escalar).
P.1.11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x y = 0
y = 0, entonces x = 0.
P.1.12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente
independientes.
P.1.13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser
ortogonales.
P.1.14. Demostrar que el metodo de ortonormalizacion de Gram-Schmidt genera una base ortonormal.
P.1.16. Demostrar que la base dual del dual de una base cualquiera esta dado por la base de partida.
P.1.17. Demostrar las ecuaciones Ecs. (1.69, 1.70 y 1.72) que relacionan la base dual con la base de
partida.
P.1.18. Demostrar que la inversa del tensor metrico esta dada por Ec. (1.71).
P.1.19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec.
(1.88)).
P.1.20. Deducir la ley de transformacion que cumplen las componentes de un vector bajo el cambio
de base C:
xi = Dji xj , xi = Cji xj
donde D C 1 .
1.5. PROBLEMAS 25
P.1.21. Deducir la ley de transformacion que cumplen las componentes de un vector respecto a la
base dual bajo el cambio de base C, dada por Ec. (1.92).
P.1.22. Deducir la relacion entre las componentes co- y contra-variantes de un vector, dada por Ec.
(1.93).
P.1.26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto inva-
riante bajo cambios de base).
P.1.28. Demostrar que la matriz correspondiente a una transformacion unitaria, respecto de una base
T
ortonormal, cumple U 1 = U .
P.1.29. Demostrar que la matriz correspondiente a una transformacion ortogonal, respecto de una
base ortonormal, cumple U 1 = U T .
P.1.30. Dado el cambio de base no ortogonal (pero extremadamente sencillo) que pasa de la base
{i, j, k} de R3 (con metrica Eucldea) a {2i, 2j, 2k}, calcule la matriz del cambio de base y
su inversa, calcule como cambia la base dual y como cambian las componentes de un vector
contravariante y uno covariante.
P.1.31. Repita el ejercicio anterior considerando un tensor metrico arbitrario. Calcule tambien como
cambian las componentes del tensor metrico y del tensor metrico dual.
es decir
Tki Cjk = ji
Por tanto la matriz Tji es la compleja conjugada de la inversa de [C]: Tji = Dji . La ecuacion
(1.88) es valida para el caso de un espacio vectorial definido sobre el cuerpo de los numeros
reales, que es el caso considerado en este curso (salvo que se diga lo contrario).
En este curso hemos tomado como hipotesis que se trabaja con un campo vectorial definido
sobre el cuerpo de los numeros reales, tal y como se afirma en la seccion 1.2.3, inmediatamente
26 CAPITULO 1. ESPACIOS VECTORIALES
antes de definir el tensor metrico gij = ei ej . Esto es muy importante dado que en los apuntes
se emplea constantemente la relacion de simetra gij = gji , que solo es valida para espacios
vectoriales reales. En el caso de un espacio vectorial complejo la relacion anterior se re-escribe
como gij = gji , y en consecuencia muchas de las relaciones mostradas en los apuntes cambian.
Por ejemplo, en el caso de un espacio vectorial complejo las componentes contravariantes de
un vector cambian de acuerdo a v i = Dji v j (igual que en el caso real), pero las componentes
co-variantes cambian con la compleja conjugada de la matriz del cambio: vi = Cij vj .
La base nueva es sencillamente 2i, 2j, 2k. Vamos a considerar un caso ligeramente mas
general, de modo que en lugar de los factores 2, vamos a suponer un cambio de base en
el que cada vector de la base de partida se multiplica por un factor cualquiera (a, b y c
respectivamente), de modo que la base nueva es:
a 0 0
ai = 0 ; bj = b ; ck = 0
0 0 c
Por supuesto suponemos que ninguno de estos factores puede ser nulo (por que es necesario
imponer esto?), y para recuperar el problema propuesto basta con hacer a = b = c = 2.
La matriz del cambio de base (C) esta dada por los vectores de la base nueva puestos como
vectores columna, por tanto
a 0 0
C = 0 b 0
0 0 c
El problema pide calcular como cambian la base de partida y su dual bajo este cambio de base.
En primer lugar, la base de partida {i, j, k} se convierte al aplicar el cambio en {ai, bj, ck}.
El dual de la base de partida es ella misma (ya que se trata de una { 1base ortonormal
} en un
1
espacio Eucldeo), y al aplicar el cambio de base se transforma en a i, b j, c k .1
Por otra parte nos piden calcular como cambian las componentes de los vectores. Las com-
ponentes co- y contra-variantes de cualquier vector en la base de partida coinciden (ya que
1.6. BIBLIOGRAFIA 27
la base de partida coincide con su dual), pero esto ya no va a suceder en la base nueva. Dado
el vector r = xi + yj + zk en la base de partida, las componentes contravariantes de este
vector (inicialmente x, y, z) pasan a ser en la nueva base a1 x, b1 y, c1 z, Logicamente,
si multiplicamos por un factor a la longitud del vector base en la direccion del eje X, las
coordenadas respecto de este vector se multiplican por a1 , y analogamente con las otras
coordenadas. Este ejemplo es especialmente simple, ya que al ser el cambio diagonal, no se
mezclan unas coordenadas con otras. En cuanto a las componentes co-variantes, inicialmente
tambien x, y, z, al realizar el cambio estas componentes pasan a ser ax, by, cz.
Aunque el enunciado no lo pide, podemos calcular tambien como cambia el tensor metrico y el
tensor metrico dual. El tensor metrico de partida es la identidad en 3 dimensiones, y coincide
con su dual. En la nueva base el tensor metrico sigue siendo diagonal, pero los coeficientes de
la diagonal principal ya no son 1, sino que estan dados por
En cuanto al tensor metrico dual, en la nueva base sigue siendo diagonal, y los elementos de
la diagonal principal pasan a estar dados por:
g 11 = a2 ; g 22 = b2 ; g 33 = c2
P.1.31. Consideramos el mismo cambio que en el ejercicio anterior, pero ahora con una metrica ar-
bitraria. Las matrices C y D son las calculadas en el ejercicio anterior. La base de partida es
{e1 , e2 , e3 } y al aplicar el cambio se convierte en {ae1 , be2 , ce3 } (vamos a reservar los tradi-
cionales i, j y k para el caso Eucldeo). El problema pide considerar una metrica arbitraria,
de modo que suponemos conocido el tensor metrico de partida gij y tambien su inverso g ij .
Con esto sabemos que la base dual a la base de partida esta dada por
ei = g ij ej
pero mientras no se especifique una metrica concreta no se puede dar mas detalle sobre los
ei .
El tensor metrico en la nueva base queda dado por gij = i j gij (sin suma ni en i ni en j),
donde hemos definido 1 = a, 2 = b, 3 = c. En cuanto al inverso del tensor metrico en la
nueva base, encontramos g ij = 1 1 ij
i j g (sin suma ni en i ni en j).
1.6. Bibliografa
Para los apuntes de este captulo se ha consultado el texto de Burgos [3], junto con [8] y los
textos clasicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].
Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro
de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].
28 CAPITULO 1. ESPACIOS VECTORIALES
Captulo 2
Tensores
En el apartado anterior hemos visto los tres tipos basicos de tensores: escalares, vectores y
aplicaciones lineales, y sus correspondientes reglas de transformacion bajo cambios de base. En
este apartado estudiaremos el concepto de tensor general de rango arbitrario y veremos algunos
ejemplos concretos de tensores empleados en fsica. Por ultimo veremos una introduccion al algebra
tensorial, incluyendo productos tensoriales y productos de contraccion, algunos criterios practicos
de tensorialidad y ciertos tipos especiales de tensores.
Aclaracion
Cuando uno habla de vectores es frecuente denominar vector tanto al propio vector (p. ej.
v = v 1 i + v 2 j + v 3 k { R3 ) como
} al conjunto de coordenadas que{lo1 describen
} respecto a una
1 2 3 2 3
base concreta (p. ej. v , v , v ). Por tanto, es normal referirse a v , v , v como un vector
contravariante o simplemente un vector. La diferencia entre el (verdadero) vector v y el conjunto
de componentes que lo describe respecto de una base dada es que v es invariante bajo cambios de
29
30 CAPITULO 2. TENSORES
base (el vector sigue siendo el mismo, independientemente de la base del espacio que decidamos
emplear para describirlo), mientras que sus componentes dependen de la base empleada, y cambian
bajo un cambio de base segun las leyes que hemos visto en el captulo anterior. Aunque posiblemente
este abuso del lenguaje incurra en cierta incorreccion, se admite ya que simplifica enormemente la
comunicacion.
Con tensores de rango general sucede exactamente lo mismo: en el lenguaje coloquial se deno-
mina con frecuencia tensor tanto al verdadero objeto tensorial (objeto geometrico invariante bajo
cambios de base), como al conjunto de coordenadas que lo describen en una base concreta, que
se transforma bajo cambios de base de acuerdo a la correspondiente ley de transformacion tenso-
rial. Normalmente por el contexto quedara claro si nos estamos refiriendo al verdadero tensor o al
correspondiente conjunto de coordenadas que lo describen respecto a una determinada base.
Los tensores se emplean en fsica teorica con muchsima frecuencia, especialmente en relatividad,
electromagnetismo y en general en cualquier teora de campos, pero tambien se emplean mucho en
diversas areas de la fsica de interes en ingeniera, como mecanica de medios continuos (resistencia
de materiales, elasticidad) y mecanica de fluidos. El motivo es muy sencillo. Las magnitudes que
se emplean en fsica describen propiedades reales (objetivas) del mundo fsico, como por ejemplo la
masa de un objeto, su posicion, su velocidad, las fuerzas a que esta sometido, etc. Para describir
muchas de estas propiedades es necesario emplear algun sistema de referencia, cuya eleccion es
totalmente arbitraria. Sea cual sea el sistema de referencia que decidamos emplear, las propiedades
fsicas que pretendemos describir son las mismas, no dependen del sistema de referencia escogido.
Supongamos por ejemplo una situacion en la que muchos observadores estan estudiando el mismo
sistema fsico, empleando para ello varios sistemas de referencia distintos. Aunque cada uno de
ellos emplee un sistema de referencia diferente, todos ellos estan describiendo la misma realidad
fsica, de modo que todas estas descripciones deben ser coherentes entre s. Ademas debe ser posible
traducir los resultados de un observador de forma que los otros puedan verificarlos, lo cual implica
que existen reglas objetivas bien definidas que permiten transformar las observaciones realizadas
desde un sistema de referencia a otros sistemas.
El calculo tensorial es un metodo sistematico para trabajar con objetos geometricos de manera
independiente al sistema de referencia que se este empleando, de tal forma que si una relacion
tensorial es correcta en un determinado sistema de coordenadas, entonces tambien lo es en cual-
quiera otro. Esto hace que los tensores sean objetos matematicos adecuados para la descripcion
de propiedades y leyes fsicas. De hecho, las magnitudes fsicas se caracterizan por tener compor-
tamiento tensorial bien definido, y las leyes fsicas pueden expresarse como ecuaciones tensoriales.
Muchas magnitudes fsicas son tensores como los que veremos en este captulo; otras, denominadas
densidades tensoriales (a veces pseudotensores o tensores relativos), son objetos geometricos que
cumplen leyes de transformacion iguales a las tensoriales, pero con un factor de escala adicional
(dado por una determinada potencia del determinante de la matriz de cambio de base), tal y como
tendremos ocasion de ver en el captulo siguiente.
Previamente ya hemos mencionado varios ejemplos de propiedades fsicas escalares y vectoriales,
a continuacion veremos algunos ejemplos de magnitudes fsicas de rango tensorial superior.
2.1. CONCEPTO DE TENSOR 31
donde, analogamente a como hemos hecho en el captulo anterior, empleamos super-ndices para
los ndices contravariantes y subndices para los ndices covariantes, y donde se aplica el convenio
de suma de Einstein para todos los ndices repetidos.
En fsica es frecuente tomar la anterior ley de transformacion como definicion de tensor de orden
r-covariante s-contravariante. Esta definicion tiene la ventaja de ser la generalizacion directa de las
correspondientes leyes de transformacion que hemos visto en el apartado anterior para tensores de
orden 1 y 2, pero tiene el inconveniente de resultar poco intuitiva. En este captulo intentaremos
aclarar el significado de la anterior ley de transformacion de tensores generales.
Desde un punto de vista mas formal, los tensores se pueden definir como elementos de un espacio
vectorial denominado espacio producto tensorial, tal y como veremos mas abajo, lo cual tiene la
ventaja de que en ese contexto la ley de transformacion anterior resulta totalmente natural, e incluso
intuitiva. Tambien es habitual definir formalmente los tensores como aplicaciones multilineales
definidas entre ciertos espacios producto tensorial, tal y como veremos tambien en este captulo.
32 CAPITULO 2. TENSORES
Antes de pasar a estas definiciones mas formales vamos a justificar el empleo de objetos tensoriales
de orden superior con algunos ejemplos de interes en fsica.
entonces la polarizacion correspondiente a campo externo nulo es nula. Teniendo esto en cuenta,
aproximando P = P (E) por su desarrollo en serie de Taylor en torno a E = 0, a orden mas bajo
encontramos la mencionada relacion lineal P = E, definiendose la constante de proporcionalidad
como la polarizabilidad del medio.
En el caso de un medio isotropo la respuesta del medio es la misma independientemente de la
direccion del campo aplicado. En ese caso P tiene la misma direccion que E, y la polarizabilidad es
sencillamente un escalar (o si se prefiere un escalar multiplicado por la matriz identidad). Esto es
lo que sucede en el caso de los gases y los lquidos sencillos, en esos casos las moleculas que forman
el medio estan orientadas de todas las formas posibles con igual probabilidad, de tal forma que, al
promediar, a nivel macroscopico no existe ninguna direccion especial en el medio. La situacion es
diferente en el caso de un medio cristalino. Es evidente que en un cristal no todas las direcciones
son equivalentes: en una red cubica es distinto aplicar un campo en la direccion de la diagonal
principal a hacerlo segun la direccion perpendicular a dos caras opuestas. En otro caso podramos
tener como celda fundamental no cubos, sino pareleleppedos con aristas de distintos tamanos
segun las 3 direcciones del espacio; en cualquiera de estos casos la respuesta del medio sera distinta
dependiendo de la orientacion del campo aplicado, ya que en ciertas direcciones las cargas pueden
moverse mas facilmente que en otras. En un medio desordenado, como un gas o un lquido, las
orientaciones particulares de las moleculas a nivel microscopico no se traducen en una direccion
privilegiada a nivel macroscopico, ya que al promediar en todas las orientaciones posibles estos
efectos se cancelan. Esto no sucede en un medio cristalino, ya que en estos la celda fundamental
que define la red se repite siempre con la misma orientacion. Como consecuencia, en un medio
cristalino la anisotropa introducida por la celda fundamental a nivel microscopico se traduce en
un comportamiento anisotropo a nivel macroscopico. En ese caso la polarizabilidad ya no es la
misma en todas las direcciones, pero la relacion lineal entre P y E sigue siendo valida (siempre y
cuando E no sea demasiado elevado), de modo que estos dos vectores ya no seran sencillamente
proporcionales, sino que estaran relacionados por una aplicacion lineal P = E. En ese caso la
polarizabilidad pasa a ser una aplicacion lineal y es muy facil ver que si P y E son vectores
1-contravariantes, entonces necesariamente es un tensor 1-covariante 1-contravariante.
Otro ejemplo similar es el de la conductividad electrica. Cuando se aplica un campo electrico
en un medio conductor aparece una cierta densidad de corriente electrica j, que es proporcional a
E (al menos para campos no demasiado intensos), definiendose la constante de proporcionalidad
como la conductividad electrica del medio. Si la movilidad de las cargas libres no es la misma en
todas las direcciones, entonces j y E dejan de ser proporcionales, pero siguen estando relacionados
linealmente. En ese caso la conductividad pasa a estar descrita por una aplicacion lineal, es decir,
un tensor 1-covariante 1-contravariante.
En los dos ejemplos precedentes podra parecer que la validez de la aproximacion lineal es
muy limitada, sin embargo en la practica se observa que esta aproximacion se cumple con mucha
frecuencia incluso para campos aplicados muy intensos. En principio la aproximacion lineal debera
ser valida solo en el lmite de campos externos muy debiles, pero debiles comparados con que escala.
La aproximacion lineal es valida siempre que el campo aplicado sea pequeno en comparacion con
la escala de intensidad de campo electrico tpica en el material a nivel microscopico, la cual es
muchos ordenes de magnitud mayor que la escala tpica de intensidad de campo electrico del mundo
macroscopico. El motivo de esta diferencia de escala es muy simple. Por un lado a nivel microscopico
las distancias tpicas son muchos ordenes de magnitud menores que a nivel macroscopico, por otro
a nivel macroscopico todas las cargas suelen estar apantalladas, lo cual no siempre sucede a nivel
microscopico. Esta diferencia de escala entre la intensidad tpica de los campos a nivel micro- y
34 CAPITULO 2. TENSORES
macroscopico explica la validez de la aproximacion lineal, incluso cuando aplicamos campos que
desde el punto de vista macroscopico nos parecen muy intensos, pero que no lo son tanto si los
comparamos con las escalas tpicas del mundo microscopico.
En fsica es muy frecuente encontrar magnitudes relacionadas entre s por aplicaciones lineales.
Esto sucede en multitud de leyes fundamentales, como la que relaciona el momento de las fuer-
zas aplicadas sobre un solido y su aceleracion angular; y tambien en leyes menos fundamentales,
deducidas como una primera aproximacion de un comportamiento mas complejo. En este ultimo
caso, si la propiedad A aparece como consecuencia de aplicar la magnitud B, A sera una funcion
creciente de B. Si el valor de A para B = 0 es nulo, entonces por medio de un desarrollo en serie de
Taylor encontramos una relacion lineal entre estas magnitudes, que sera valida siempre y cuando
B no sea demasiado elevado. Si la estructura microscopica del medio es anisotropa, es decir, si
la respuesta del medio es diferente dependiendo de la direccion considerada, entonces la relacion
lineal entre A y B no se reduce a una mera relacion de proporcionalidad, sino que tendremos una
relacion del tipo A = T B, donde T es un tensor con el rango tensorial adecuado, determinado
por los rangos tensoriales de A y B. Desde el punto de vista fsico las leyes fsicas lineales implican
la validez del conocido principio de superposicion. Desde el punto de vista matematico siempre que
dos magnitudes fsicas esten relacionadas por una aplicacion lineal, y queramos aplicar cambios de
base, tendremos que emplear tensores.
Convenio
En lo sucesivo supondremos que s(r, n) representa la fuerza por unidad de superficie ejercida
por el medio situado en el lado de la superficie hacia donde apunta la normal n sobre el medio
situado al otro lado de la superficie.
Figura 2.1: El producto n es la fuerza por unidad de superficie ejercida por el medio
situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado.
Las fuerzas por unidad de superficie pueden ser tangentes a la superficie considerada, en cuyo
caso se denominan tensiones cortantes o de cizalla; o normales a la superficie considerada. De estas
ultimas, segun el convenio adoptado mas arriba, una fuerza con signo positivo corresponde a una
tension y una negativa a una compresion.
Por el principio de accion y reaccion la fuerza por unidad de superficie ejercida por el medio
situado en el lado de la superficie desde donde apunta n, sobre el medio situado al otro lado de la
superficie, esta dada por s (Fig. 2.1). Esto implica que s es una funcion impar de n
dx
dy
B y
dz
x
Figura 2.2: Elemento infinitesimal de medio material con forma de tetraedro.
Por otra parte es muy facil ver que los elementos de superficie di estan relacionados con d por
medio de
dx = n1 d, dy = n2 d, dz = n3 d (2.7)
que expresa la tension ejercida en el punto r a traves de la superficie con normal n como combinacion
lineal de las tensiones ejercidas en r a traves de las tres superficies perpendiculares a los ejes.
2.2. MAGNITUDES FISICAS DE RANGO TENSORIAL SUPERIOR 37
La anterior expresion se puede expresar de una manera mas compacta por medio del tensor de
tensiones (o tensor de esfuerzos) definido por
sx (r, i) sx (r, j) sx (r, k)
y
(r) = (s(r, i) s(r, j) s(r, k)) = s (r, i) s (r, j) s (r, k)
y y (2.9)
sz (r, i) sz (r, j) sz (r, k)
si = ij nj (2.11)
elasticas de cualquier medio tendramos que suministrar nada menos que 81 constantes elasticas.
En realidad, como consecuencia de la simetra del tensor de elasticidad, el numero de constantes
diferentes es mucho menor (en la mayora de los casos solo 2). Para empezar, tal y como hemos
mencionado mas arriba puede demostrarse facilmente que el tensor de tensiones es necesariamente
simetrico ij = ji (de lo contrario no puede cumplirse la conservacion del momento angular). Por
otra parte el tensor j
( de deformaciones ) esta dado solo por la componente simetrica
( de u i /x , es de-
)
cir, por eij 2 ui /x + uj /x , ya que la componente antisimetrica ( 2 ui /x uj /xi )
1 j i 1 j
describe rotaciones tipo solido rgido, que no introducen deformaciones. Como consecuencia de esta
simetra, de las 81 componentes elasticas del tensor de elasticidad solo puede haber 36 distintas.
Por otra parte, en la mayora de los casos los medios elasticos considerados tienen cierta simetra,
es decir, son invariantes (y todas sus propiedades fsicas tambien) bajo ciertas operaciones, como
por ejemplo rotaciones o reflexiones. Esta simetra impone ligaduras entre los posibles valores de las
36 constantes elasticas anteriores, haciendo que disminuya el numero de constantes independientes.
En ultima instancia, en un medio elastico isotropo la respuesta elastica del medio es la misma
independientemente de la direccion considerada, y como consecuencia las propiedades elasticas son
invariantes bajo cualquier rotacion. En ese caso de las 36 constantes elasticas anteriores, en realidad
solo hay 2 distintas, que se suelen tomar como el modulo de Young y el Coeficiente de Poisson.
En el caso de un fluido la situacion es similar, pero en ese caso las tensiones viscosas no son
proporcionales a la deformacion, sino a la velocidad de deformacion, es decir, a la deformacion
introducida por unidad de tiempo como consecuencia ( del movimiento) del fluido. Esta velocidad
de deformacion esta dada por el tensor eij 2 ui /xj + uj /xi , donde ahora el vector u
1
representa el desplazamiento por unidad de tiempo de cada punto del fluido, es decir, el campo
de velocidades del fluido. Los fluidos en los que se cumple la aproximacion lineal entre tensiones
viscosas y velocidad de deformacion se denominan Newtonianos. Igual que hay solidos no elasticos,
tambien hay fluidos no Newtonianos, en ellos la aproximacion lineal entre tensiones y deformaciones
no es valida. Analogamente a como suceda en los medios elasticos, en los fluidos Newtonianos el
coeficiente de proporcionalidad entre el tensor de tensiones y el de velocidad de deformacion es
un tensor de orden 4, en el que por la simetra del tensor de tensiones y del de velocidad de
deformacion (ambos simetricos) solo puede haber 36 componentes distintas. La inmensa mayora
de los fluidos son isotropos, de modo que en esos casos de las 36 componentes anteriores solo hay 2
independientes, que se definen en terminos de la viscosidad de cizalla y la viscosidad de volumen.
las derivadas direccionales de estos tensores estaremos manejando tensores de orden superior.
En el caso de espacios no Eucldeos, o de espacios Eucldeos descritos en terminos de coordenadas
curvilneas, la operacion de derivacion direccional con comportamiento tensorial bien definido es
la derivada covariante, que es la generalizacion de la derivada parcial al caso en que los vectores
de la base no son constantes, sino que varan de un punto a otro. Entender bien el significado y
propiedades de la derivada covariante es, posiblemente, el objetivo mas importante de este curso.
El motivo es el siguiente, ya hemos mencionado que las leyes fsicas pueden expresarse de manera
independiente al sistema de referencia empleado como ecuaciones tensoriales; en la mayora de los
casos las leyes fsicas expresan principios de conservacion que cumplen unas magnitudes (masa,
energa, momento, . . . ) descriptibles como campos tensoriales; estos principios de conservacion se
expresan como ecuaciones en las que entran las derivadas direccionales de estos campos, es decir,
como ecuaciones diferenciales en derivadas parciales. Pues bien, en la expresion tensorial de estas
leyes la derivada direccional que entra en juego es la derivada covariante.
Antes de estudiar la definicion y propiedades de la derivada covariante es conveniente estudiar
a fondo algunas propiedades generales de tensores de rango arbitrario. De todas formas, esperamos
que esta seccion haya servido para estimular cierta intuicion fsica sobre el concepto de tensores y
su uso en fsica, incluyendo algunos tensores de rango elevado.
x E1 , y 1 , y 2 E2 , x (y 1 + y 2 ) = x y 1 + x y 2 (2.12)
x1 , x2 E1 , y E2 , (x1 + x2 ) y = x1 y + x2 y (2.13)
x y = xi y j eij (2.15)
Una vez formado el espacio producto tensorial E1 E2 , podemos construir el espacio producto
tensorial de este por un tercer espacio E3 , de tal forma que se verifica la
propiedad asociativa del producto tensorial, para cualesquiera espacios vectoriales E1 , E2 , E3
se cumple
E1 E2 E3 = (E1 E2 ) E3 = E1 (E2 E3 ) (2.16)
Por medio de la propiedad anterior podemos construir de manera recursiva el espacio producto
tensorial de cualquier conjunto de espacios vectoriales E1 E2 Ep , o de un mismo espacio
vectorial E por s mismo un numero arbitrario (p) de veces. Con frecuencia esto se denomina
potencia tensorial p de E y se denota por Ep . Por completitud, en el caso p = 0 se define el
espacio E0 como el cuerpo de escalares (K) sobre el que esta definido el espacio vectorial E. En
nuestro caso normalmente tendremos E0 = R.
Una vez construido el espacio producto tensorial E1 E2 Ep , se definen como tensores
construidos sobre los espacios base E1 , E2 , . . . , Ep a todos los elementos de E1 E2 Ep .
tensorial
E r Es = E| E {z. . . E} E
| E{z . . . E} (2.17)
r veces s veces
pueden ponerse en componentes como
Si realizamos un cambio de base en E, dado por la matriz de cambio de base C, esto induce el
correspondiente cambio de base en el espacio dual E y como consecuencia tambien en el espacio
producto tensorial E r Es . Como resultado del comportamiento covariante de la base de E
y contravariante de la correspondiente base dual, es muy sencillo comprobar que el conjunto de
componentes Tji11 ji22 ...
... is
jr se transforma de acuerdo a la regla de transformacion tensorial r-covariante
s-contravariante definida { en}nEc. (2.1). Para ello basta con sustituir cada uno de los vectores
{ de
}n las
bases viejas ({ei }ni=1 y ei i=1 ) en terminos de los vectores de las bases nuevas ({ei }ni=1 y ei i=1 )
y aplicar la propiedad asociativa del producto tensorial frente al producto por escalares.
Vemos por tanto que en el contexto del espacio vectorial E r Es la ley de transforma-
cion bajo cambios de base dada por Ec. (2.1) es totalmente natural, y puede entenderse como la
2.3. DEFINICION DE TENSOR 41
generalizacion al espacio producto tensorial de las conocidas leyes de transformacion de las compo-
nentes de un vector de E bajo cambios de base. Esta ley de transformacion garantiza que el objeto
T E r Es definido en Ec. (2.18) es invariante bajo cambios de base.
Suma de tensores: Dados 2 tensores del mismo tipo, es decir, pertenecientes al mismo espacio
producto tensorial T, se define la suma de tensores como el tensor que resulta de sumar estos
componente a componente (obviamente estamos dando por hecho que estas componentes
estan referidas a la misma base).
El tensor que se obtiene al sumar dos tensores dados pertenece al mismo espacio que los
anteriores y es unico
Dos tensores de distinto tipo, es decir, que no pertenezcan al mismo espacio producto
tensorial, no se pueden sumar.
Dado que la suma de tensores se realiza componente a componente, esta operacion cum-
ple las propiedades habituales de la adicion (conmutativa, asociativa, elemento neutro,
elemento opuesto).
El tensor que se obtiene al multiplicar un tensor dado por un escalar pertenece al mismo
espacio que el tensor de partida y es unico
A = Aij11 ... is
... jr ei1 . . . eis e . . . e
j1 jr
(2.22)
k ... k
B = B11 ... pq ek1 . . . ekq e1 . . . ep (2.23)
42 CAPITULO 2. TENSORES
y las componentes del tensor C referidas a esta base estan dadas por
i ... i k ... k k ... k
Cj11 ... jsr 11 ... pq = Aij11 ... is 1
... jr B1 ... p
q
(2.25)
C x = y, y = B(A(x)) (2.27)
La gran utilidad de los tensores es que permiten generalizar el producto matricial a objetos mul-
tidimensionales, de rangos co- y contra-variantes arbitrarios, de tal forma que podemos emplearlos
como aplicaciones multilineales definidas entre espacios producto tensorial. El termino multilineal
se refiere a que los tensores definen aplicaciones lineales respecto de cada uno de sus ndices. Para
emplear los tensores como aplicaciones multilineales es preciso definir primero la conocida operacion
de contraccion de ndices.
genera un tensor de orden r 1-covariante s 1-contravariante, con las componentes que acabamos
de indicar. Similarmente a como hemos hecho para contraer los dos ultimos ndices de Tji11 ji22 ...
... is
jr ,
podramos haber tomado cualquier otro par de ndices co- y contra-variantes, calculandose la co-
rrespondiente contraccion de manera analoga:
se igualan los valores de los ndices escogidos a un ndice mudo ( en Ec. (2.28)) y se suma
para todos los valores posibles del ndice mudo.
Al contraer un ndice covariante con uno contravariante sus comportamientos co- y contra-variantes
se cancelan, resultando en un objeto tensorial cuyos ordenes co- y contra-variantes se han reducido
en una unidad.
Podemos contraer cualquier pareja de ndices, la unica condicion es que siempre se contrae
un ndice co-variante con otro contra-variante. La contraccion de dos ndices del mismo tipo no
esta definida (p. ej. tr(A) = Aii , pero gii no tiene ningun sentido, por el contrario, gii si esta definido
y es muy sencillo de calcular).
De manera un poco mas formal, dado un espacio vectorial E y su dual E , existe una aplicacion
lineal definida sobre E E con imagen en el cuerpo K, tal que a cada elemento x y E E
le hace corresponder la accion de la aplicacion x sobre el vector y, dada por x (y) = x y K
(siendo x el vector asociado a la aplicacion x por medio del teorema de Riesz-Frechet). De esta
forma, si tenemos la aplicacion lineal A = Aij ej ei , la contraccion del superndice i con el
subndice j corresponde a Aij ej (ei ) = Aij ij = Aii (por definicion de base dual). En el caso de un
tensor de orden superior, la contraccion de dos ndices cualesquiera ( y ) se calcula de manera
analoga, sustituyendo e e por e (e ) = . Esta forma de definir la contraccion de ndices
pone de manifiesto de manera mas evidente que solo se pueden contraer ndices covariantes con
ndices contravariantes (y viceversa) y que el objeto resultante tiene el comportamiento tensorial
que hemos mencionado.
dadas por los correspondientes productos de contraccion del tensor con la matriz del cambio y su
inversa.
El producto de contraccion generaliza a tensores de orden arbitrario el producto de matrices.
De hecho, el producto matricial Cji = Aik Bjk esta dado por la contraccion de Ai Bj respecto de los
ndices y . El producto escalar (xy = gij xi y j = xi y i = xi yi ) tambien esta dado por un producto
de contraccion. Una vez mas, es importante darse cuenta de que solo se pueden contraer ndices
correspondientes a comportamientos tensoriales opuestos (uno covariante con uno contravariante).
Por medio de esta operacion podemos considerar el tensor T E r Es , con componentes
Tj1 j2 ... jr , como una aplicacion multilineal definida sobre el espacio producto tensorial E s Er
i1 i2 ... is
con imagen en el cuerpo de escalares K (en nuestro caso R), de tal forma que para cada elemento
A de E s Er (con componentes Aji11 ij22 ... ... jr
is ) la aplicacion T le hace corresponder un escalar,
dado por el correspondiente producto de contraccion
jr Ai1 i2 ... is R
... is j1 j2 ... jr
T A = Tji11 ji22 ... (2.30)
Suma y producto por escalares: Dados dos tensores del mismo tipo (T 1 y T 2 ), cualquier
combinacion lineal de ellos (T 1 + T 2 , con y escalares) genera un tensor del mismo tipo
que los de partida.
2.5. CRITERIOS DE TENSORIALIDAD 45
Permutacion de ndices: Dado un tensor, el objeto que resulta de permutar dos ndices del
mismo tipo es un tensor del mismo tipo que el tensor de partida. Por ejemplo, dado el tensor 2-
covariante Aij , el objeto con componentes Aji tambien es un tensor 2-covariante. Sin embargo,
en general el objeto que resulta de permutar dos ndices de distinto tipo no sera un tensor.
A=C B (2.33)
A estas alturas debera haber quedado clara la gran utilidad de la notacion que hemos empleado
desde el principio para escribir componentes covariantes y contravariantes de tensores, no solamente
porque indica de manera inmediata el tipo de comportamiento bajo cambios de base, sino porque
permite identificar rapidamente expresiones tensoriales correctas e incorrectas. Por ejemplo, en la
expresion
R = g ij Rij = g ij g m Rijm
vemos automaticamente que R representa un escalar (suponiendo que Rijm y g ij son tensores), ya
que en ella todos los ndices estan contraidos correctamente (uno covariante con uno contravariante).
Por otra parte, la expresion
M = M
no define un tensor de ningun tipo, ya que representa la contraccion respecto de dos ndices del
mismo tipo.
La notacion que estamos empleando tambien facilita enormemente escribir la ley de transforma-
cion tensorial que cumplen las componente de un tensor de cualquier tipo. Por ejemplo, supongamos
que queremos escribir la ley de transformacion de las componentes del tensor de curvatura de Rie-
mann Rjki bajo el cambio de base Cji , para ello podemos aplicar la siguiente regla nemotecnica:
46 CAPITULO 2. TENSORES
1. En terminos de la nueva base los valores de las componentes de este tensor habran cambiado,
pero el tensor sigue siendo del mismo tipo. Denotamos las componentes en la nueva base por
i
Rjk
en el lado
4. Finalmente, para obtener una expresion tensorial valida todos los ndices de R
derecho deben estar contraidos correctamente. Logicamente, el ndice contravariante de R
debe estar contraido con el subndice de la matriz inversa D, mientras que cada uno de los
ndices covariantes deben estar contraidos con los correspondientes superndices de cada una
de las matrices del cambio C. Esto nos lleva a
i
Rjk = Dai Cj Ck C R
a
Tensores asociados
La contraccion con el tensor metrico gij (o con su inverso g ij ) produce la bajada (o subida
si contraemos con el inverso) del ndice que hemos contrado, tal y como ya vimos en el primer
captulo. Los tensores relacionados entre s por esta operacion se denominan tensores asociados.
En el primer captulo ya vimos un ejemplo de tensores asociados dado por las componentes co- y
contra-variantes de un vector (vi = gij v j , v i = g ij vj ). Esto se generaliza directamente a tensores de
cualquier orden, por ejemplo, la version puramente covariante del tensor de curvatura de Riemann
k .
esta dada por Rij = gik Rj
La operacion de subida y bajada de ndices es reversible, ya que al ser gij y g ij inversos uno
del otro, si volvemos a contraer con g ij (en caso de haber contrado antes con gij , y viceversa)
recuperamos las componentes de partida.
2.6. TIPOS DE TENSORES 47
Tipo de componentes
En referencia al tipo de componentes los tensores pueden clasificarse en:
Simetra
Dependiendo de la simetra de las componentes tenemos
Tensores simetricos: un tensor es simetrico respecto a dos ndices del mismo tipo si sus com-
ponentes no cambian al permutar estos ndices.
Por ejemplo, un tensor 2-covariante Aij es simetrico si ij Aij = Aji . Analogamente, el tensor
metrico dual g ij es simetrico dado que ij g ij = g ji .
Tensores antisimetricos: un tensor es antisimetrico respecto a dos ndices del mismo tipo si
sus componentes cambian con un factor 1 al permutar estos ndices.
Por ejemplo, el tensor ij es antisimetrico respecto de sus ndices i y j si ij ij = ji .
Un tensor que solo tenga componentes de un tipo (o bien covariantes o bien contravarian-
tes) se dice completamente simetrico (respectivamente completamente antisimetrico) si sus
componentes son simetricas (respectivamente antisimetricas) respecto a la permutacion de
cualquier par de ndices.
Es muy facil demostrar que las propiedades de simetra o antisimetra anteriores son inde-
pendientes de la base que estemos empleando, es decir, son propiedades inherentes al tensor en
consideracion. Tambien es interesante ver que un tensor arbitrario de segundo orden, con compo-
nentes solo de un tipo (p. ej. Tij ), se puede descomponer como suma de un tensor simetrico y uno
antisimetrico por medio de
1 1
Tij = (Tij + Tji ) + (Tij Tji ) (2.34)
2 2
esta descomposicion tan sencilla tiene aplicaciones muy importantes en fsica. Es evidente que dado
un tensor de orden superior, podemos hacer una descomposicion similar para cualquier pareja de
ndices del mismo tipo.
Las operaciones de permutacion de ndices solo estan bien definidas desde el punto de vista
tensorial (es decir, solo son independientes de la base) cuando se intercambian ndices del mismo
tipo. En particular, la matriz Aij correspondiente a una aplicacion lineal puede ser simetrica respecto
de una determinada base (Aij = Aji ) y no serlo respecto a otra base distinta.
Tambien es facil demostrar que el resultado de contraer 2 ndices simetricos con 2 ndices
antisimetricos es necesariamente nulo (es decir, si Aij = Aji y ij = ji , entonces Aij ij = 0).
Como consecuencia, en la contraccion de un tensor 2-contravariante cualquiera T ij (con un tensor )
2-covariante antisimetrico, solo contribuye la parte antisimetrica de T ij , dada por 21 T ij T ji .
48 CAPITULO 2. TENSORES
Definiciones adicionales
Aparte de los tipos de tensores definidos hasta ahora, en la practica es muy usual emplear la
siguiente terminologa:
ij k ik j i jk
Los tensores isotropos de orden 4 se emplean para definir el tensor de elasticidad del que
hablabamos al comienzo del captulo. En el caso de un medio isotropo el tensor de elasticidad debe
ser invariante bajo rotaciones. El tensor isotropo de orden 4 mas general que se puede formar es
cijk = ij k + ik j + i jk
Aparte de los anteriores tensores isotropos es interesante darse cuenta de que el tensor nulo de
rango tensorial arbitrario tambien es isotropo. Consideremos el tensor nulo de rango (r)-covariante
(s)-contravariante, por definicion todas sus componentes respecto de la base canonica son nulas;
pero como las leyes de transformacion de las componentes de tensores son lineales, si todas las
componentes de un tensor son nulas respecto de una base, entonces tambien seran nulas respecto
de cualquier otra base. Esto tiene la siguiente consecuencia importante en fsica: para cualquier
ecuacion que este escrita en forma tensorial correctamente, si esta ecuacion se cumple en una base
dada, entonces tambien se cumplira en cualquier otra base. Por tanto los tensores proporcionan el
marco adecuado para escribir ecuaciones fsicas que sean validas independientemente del sistema
de referencia empleado.
2.7. Problemas
P.2.1. Calcular el valor del escalar gii en un espacio vectorial con dimension n y metrica dada por el
tensor gij .
P.2.2. Demostrar que si entre 2 vectores 1-contravariantes (x e y) existe una relacion lineal del tipo
y = Ax, entonces A es un objeto 1-covariante 1-contravariante.
P.2.3. Demostrar que en el caso de 2 vectores 1-covariantes (x e y), dada la relacion y = Ax tambien
implica que A es un objeto 1-covariante 1-contravariante.
P.2.4. Demostrar que la contraccion de ndices (uno de cada tipo) es una operacion con comporta-
miento tensorial bien definido.
P.2.5. Demostrar que dado un tensor arbitrario, el objeto que resulta de la contraccion de dos ndices
del mismo tipo, en general, no es un tensor.
k
P.2.6. Demostrar que si Rj k
es un tensor 1-contravariante 3-covariante, entonces Rij = gik Rj
es un tensor 4-covariante.
P.2.7. Demostrar que el producto de contraccion tiene comportamiento tensorial bien definido.
P.2.8. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada
base son simetricas, entonces tambien lo son respecto de cualquier otra base.
P.2.9. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada
base son simetricas, entonces tambien lo son respecto de cualquier otra base.
P.2.10. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada
base son antisimetricas, entonces tambien lo son respecto de cualquier otra base.
P.2.11. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada
base son antisimetricas, entonces tambien lo son respecto de cualquier otra base.
50 CAPITULO 2. TENSORES
P.2.12. Demostrar que el resultado de contraer 2 ndices simetricos con 2 ndices antisimetricos es
necesariamente nulo.
P.2.13. Dados los tensores 2-contravariante T ij y 2-covariante Aij , demostrar que si Aij = Aji enton-
ces
1 ( ij )
T ij Aij = T + T ji Aij
2
P.2.14. En el caso anterior, demostrar que si Aij es antisimetrico entonces
1 ( ij )
T ij Aij = T T ji Aij
2
P.2.15. El tensor 2-covariante Tij define una aplicacion de E en E , tal que para un vector v E le
hace corresponder un vector w E , dado en componentes por Tij v j = wi . Sabiendo que el
tensor inverso (T 1 )ij se define como la aplicacion inversa a la anterior, calcule las compontes
del tensor inverso (T 1 )ij .
P.2.16. Demostrar que las versiones co- y contra-variantes de la delta de Kronecker (ij y ij ) se
comportan como tensores isotropos solo bajo cambios de base ortogonales.
P.2.17. Demostrar que las componentes de ji son invariantes bajo cualquier cambio de base.
y i = A(i, j)xj
donde suponemos que se aplica el convenio de suma de Einstein para el ndice mudo j. En
esta expresion hemos escrito las componentes i, j de A como A(i, j), y no como sub- o
super-ndices, ya que de momento no sabemos cual de las dos posibilidades (sub/super) les
corresponde.
Si hacemos un cambio de base con matriz del cambio C, la relacion anterior en la base nueva
se escribira de manera analoga:
y i = A(i, j)xj
siendo y i , A(i, j) y xj las componentes de y, A y x en la nueva base.
Sabemos que las componentes xi e y i son contravariantes, de modo que la primera de las
relaciones anteriores se puede escribir como
siendo C la matriz que relaciona la base de partida con la base nueva. Si multiplicamos ahora
por la matriz inversa del cambio de base (D) encontramos (intercambiando los nombres de
los ndices i por p, j por q y viceversa)
A(i, j) = Aij
P.2.3. Para realizar este ejercicio repetimos los pasos del ejercicio anterior, partimos de las relaciones
y = Ax expresadas en la base antigua y en la base nueva (relacionadas entre s por el cambio
de base C)
yi = A(i, j)xj , yi = A(i, j)xj
En este caso las componentes xi e yi son covariantes, por tanto
multiplicando por la matriz C e intercambiando los nombre de los ndices como en el ejercicio
anterior deducimos
yi = Cip Dqj A(p, q)xj
comparando con yi = A(i, j)xj llegamos a A(i, j) = Cip Dqj A(p, q), de modo que en este caso
el primer ndice es covariante y el segundo contravariante
A(i, j) = Aji
(donde hemos hecho explcito el convenio de suma de Einstein, y n es la dimension del espacio
vectorial). Para que tenga un comportamiento tensorial bien definido debera transformarse
siguiendo la ley de transformacion de un tensor de orden 1-covariante 1-contravariante, esto
es:
Aik = Ckr Dm
i
Am
r
P.2.7. El razonamiento es similar al empleado en los problemas P.2.4 y P.2.5. Por simplicidad supon-
dremos el producto de contraccion de dos tensores 2-covariante 2-contravariante con compo-
nentes Aij mn
kl y Brs , aunque el argumento puede extenderse a dos tensores de rangos arbitrarios.
El producto de contraccion de los dos tensores respecto de los ndices l y n tiene la forma
ijm
Ckrs = Aij m
k Brs
Para que este producto tenga un comportamiento tensorial bien definido debe cumplir la ley
de transformacion tensorial
C = Ck Cr Cs Di Dj Dm
ijm
Ckrs
Para demostrar que es as, utilizaremos el hecho de que los objetos A y B tienen un compor-
tamiento tensorial bien definido, esto es, que son tensores.
Sustituiremos en esta expresion los correspondientes productos de contraccion arriba indica-
dos:
x k r s ij
A my
x B = C C C Di Dj Dm Aky Brs
x
B = Cr Cs Dm
x mw
Dw Brs
Para obtener
Ck Cxz Di Dj Aij r s x mw k r s ij my
kz C C Dm Dw Brs = C C C Di Dj Dm Aky Brs
Ck Cr Cs Di Dj Dm
z ij mw
w Akz Brs = Ck Cr Cs Di Dj Dm
ij my
Aky Brs
P.2.8, P.2.10. Partimos del tensor 2-covariante Aij . Dado un cambio de base con matriz de cambio C las
componentes de A en la nueva base son
pero por hipotesis Apq = Aqp (+1 para el caso simetrico (P.2.8) y 1 para el caso anti-
simetrico (P.2.10)), entonces
Aji = Cip Cjq Apq
es decir
si Aij = Aji entonces Aij = Aji
si Aij = Aji entonces Aij = Aji
como queramos demostrar.
P.2.9, P.2.11. En este caso tenemos el tensor 2-contravariante Aij . Dado el cambio de base C las compo-
nentes de A en la nueva base son
Aij = Dpi Dqj Apq
intercambiando los nombres de los ndices, i por j, p por q y viceversa, como antes, encon-
tramos
Aji = Dqj Dpi Aqp
por hipotesis Apq = Aqp (+1 para el caso simetrico (P.2.9) y 1 para el caso anti-simetrico
(P.2.11)), entonces
Aji = Dpi Dqj Apq
es decir
si Aij = Aji entonces Aij = Aji
si Aij = Aji entonces Aij = Aji
como queramos demostrar.
P.2.12. El enunciado no indica si se refiere a 2 ndices de cada tipo de un mismo tensor o de 2 tensores
distintos, veamos esta cuestion en primer lugar. Si se trata de 2 tensores distintos, pongamos
Aij y Bij , para realizar el producto de contraccion construiramos primero el tensor producto
ij
tensorial Ck = Aij Bk y posteriormente contraeramos los 2 superndices con los 2 subndices,
para ello hacemos (p. ej.) i = k = p (introducimos el ndice mudo p) y j = = q (introducimos
pq
el ndice mudo q), de modo que calculamos Cpq . Tambien hubieramos podido contraer i con
pq
y j con k, en ese caso el resultado es Cqp . Por el contrario, si se trata de 2 ndices de cada
ij
tipo del mismo tensor, entonces partimos directamente del objeto Ck (saltandonos el paso de
generar este tensor a partir de 2 tensores Aij y Bij ), de modo que en ambos casos el resultado
es el mismo.
pq
Consideramos ahora el tema de la simetra. Calculamos Cpq suponiendo que los 2 super-
pq
ndices son simetricos y los sub-ndices antisimetricos. En primer lugar, como en Cpq tanto
p como q son ndices mudos los podemos cambiar de nombre, intercambiamos entonces los
nombres de p y q
pq qp
Cpq = Cqp
pq
(la expresion anterior representa la suma de Cpq respecto a p y respecto a q, de modo que
los nombres que demos a dichos ndices son irrelevantes). Ahora tenemos en cuenta que los
superndices son simetricos, mientras que los subndices son antisimetricos, con esto deducimos
pq
Cpq qp
= Cqp pq
= Cqp = Cpq
pq
pq pq pq
es decir Cpq = Cpq (a = a), de donde deducimos Cpq = 0.
2.7. PROBLEMAS 55
pq
Si contraemos los ndices de la otra forma posible, repitiendo estos pasos con Cqp llegamos a
pq
Cqp = 0, de manera totalmente analoga.
P.2.13. Se trata de un producto de contraccion de dos ndices, donde los ndices del tensor Aij son
simetricos. Lo primero que haremos sera descomponer el tensor T ij como suma de un tensor
simetrico y uno antisimetrico:
1 ( ij ) 1 ( ij ) ij ij
T ij = T + T ji + T T ji = Tsim + Tantisim
2 2
Sustituyendo tenemos que:
( )
ij ij
T ij Aij = Tsim + Tantisim Aij
Del ejercicio anterior sabemos que la contraccion de dos ndices simetricos con dos ndices
ij
antisimetricos es nula, por lo que Tantisim Aij = 0 y
ij 1 ( ij )
T ij Aij = Tsim Aij = T + T ji Aij
2
que es lo que queramos demostrar.
P.2.16. Hemos visto que los tensores isotropos son aquellos objetos cuyas componentes no varan al
realizar un cambio de base ortogonal. Consideremos el caso covariante, su transformacion
bajo el cambio de base de matriz C es
ij = Cik Cjl kl
Operando con las componentes tenemos
n
ij = Cik Cjk
k=1
Con esto se demuestra que las componentes del tensor ij son iguales a las componentes del
tensor ji , las cuales a su vez son las mismas que las del tensor ij . La demostracion para la
delta de Kronecker doble contravariante se realiza de forma similar, pero utilizando la matriz
inversa del cambio de base, D, en lugar de C.
Este es uno de los pocos ejemplos en los que la notacion matricial simplifica la demostracion,
pues la expresion
ij = Cik Cjl kl
puede escribirse en forma matricial de la forma
[] = [C]T [][C]
Como [] = 1 donde 1 es la matriz identidad, y [C]T = [C 1 ] llegamos al resultado
[] = 1
56 CAPITULO 2. TENSORES
P.2.17. Tenemos que demostrar que las componentes del tensor ji dado por la transformacion
ji = Dki Cjl lk
son
1 si i = j
ji =
0 si i =
j
En efecto, las componentes de la expresion anterior se simplifican a
ji = Dki Cjk = ji
2.8. Bibliografa
Para profundizar sobre la aparicion de tensores de orden superior en fsica se recomienda el
libro de Feynman [14, 15] (volumen 2 temas 31, 38, 39 y 42), la introduccion que hemos presentado
aqu se basa en cierta medida en la de Feynman. Para las aplicaciones del calculo tensorial en
mecanica de fluidos se recomienda el libro de Aris [18]. Ademas de los anteriores, para escribir este
captulo se han consultado principalmente los textos de Synge y Schild [13], Lichnerowicz [10] y
Bowen y Wang [2].
Captulo 3
Densidades tensoriales
Existen magnitudes perfectamente bien definidas desde el punto de vista matematico que, sin
embargo, no cumplen la ley tensorial de transformacion bajo cambios de base que hemos estudiado
hasta ahora (ver Ec. (2.1)). Un ejemplo muy sencillo es el producto vectorial de dos vectores
en R3 , cuyas componentes se transforman de acuerdo a la ley tensorial de objetos 1-covariantes,
pero multiplicada por el signo (+1 o 1) del determinante de la matriz del cambio de base. En este
captulo veremos con todo detalle como se define y como se transforma bajo cambios de coordenadas
el producto vectorial de dos vectores. Los objetos con comportamiento tensorial bajo cambios de
base con determinante positivo, pero que siguen una ley de transformacion tensorial con un factor
1 extra si el determinante del cambio de base es negativo, se denominan tensores axiales, y con
frecuencia se denominan tensores polares a los verdaderos tensores, para distinguirlos de los axiales.
El producto vectorial de dos vectores y el rotacional de un campo vectorial en R3 son ejemplos
importantes de vectores axiales. En general se denominan pseudo-tensores a los objetos que se
transforman bajo cambios de coordenadas siguiendo una ley de transformacion tensorial, pero con
alguna correccion, generalmente dada por algun factor extra, como p. ej. el signo del determinante
de la matriz del cambio de base en el caso de los tensores axiales, o el determinante de la matriz
del cambio de base elevado a alguna potencia en el caso de las densidades tensoriales.
Veamos otro ejemplo de comportamiento ligeramente distinto del comportamiento tensorial que
hemos visto hasta ahora. Consideremos el caso del determinante del tensor metrico (det (gij )), que
a partir de ahora denotaremos sencillamente por g det (gij ):
Como se transforma el determinante del tensor metrico bajo cambios de coordenadas?
De la ley de transformacion de las componentes del tensor metrico bajo el cambio de base C
gij = Ci Cj g (3.1)
donde |C| denota el determinante de la matriz del cambio C. Esto indica que g no es exactamente
un escalar, ni tampoco un tensor de ningun tipo al menos segun las leyes de transformacion que
hemos visto hasta ahora, a menos que |C| = 1, es decir, si el cambio de base es ortogonal, en cuyo
caso g se comporta como un escalar.
Otro ejemplo de este tipo de comportamiento es el que muestra la densidad de cualquier medio
material, descrita por la funcion = (x, y, z) (masa por unidad de volumen en el punto de
57
58 CAPITULO 3. DENSIDADES TENSORIALES
coordenadas x, y, z), o similarmente la densidad de cualquier otra magnitud fsica (como p. ej.
energa o momento lineal) que resulta al considerar la cantidad de una cierta magnitud extensiva
que existe en una region del espacio por unidad de volumen. En principio podra parecer que la
densidad debera ser un escalar, sin embargo esto no es cierto, al menos en el sentido estricto del
termino. Supongamos un observador que mide la densidad de un medio = dm/dV de acuerdo a
un determinado sistema de coordenadas x1 , x2 , x3 , y otro respecto a otro x1 , x2 , x3 ; las medidas de
estos observadores no coincidiran si los tamanos de los correspondientes elementos diferenciales de
volumen dV y dV no son iguales, por tanto no es invariante bajo cualquier cambio de coordenadas,
es decir, no es un escalar. En lo que necesariamente deberan coincidir ambos observadores es en la
cantidad de masa contenida en cualquier volumen finito, dada por
m= 1 2 3
(x , x , x ) dV = (x1 , x2 , x3 ) dV
V V
Sustituyendo en esta relacion la regla para cambios de coordenadas bajo integrales multiples, en-
contramos que la ley de transformacion de la densidad bajo un cambio de coordenadas es
[ ( )]
1 2 3 xi
(x , x , x ) = abs det (x1 , x2 , x3 )
xj
( i)
x
donde det x j es el determinante jacobiano del cambio de coordenadas. El valor absoluto del
determinante jacobiano representa precisamente la variacion de tamano del elemento diferencial de
volumen al pasar de un sistema de coordenadas al otro
( )
xi dV
abs det = .
xj dV
Ante una transformacion ortogonal no hay cambio en el elemento de volumen y en ese caso
la densidad se transforma como un escalar, pero ante un cambio de coordenadas no ortogonal la
densidad no se comporta exactamente como un escalar, como lo hace la masa total, sino que se
multiplica por el valor absoluto del determinante de la matriz del cambio. Las magnitudes que
cumplen esta ley de transformacion se denominan densidades escalares. A todo esto, en el ejemplo
anterior hemos mencionado que bajo un cambio de coordenadas la matriz del cambio de base
esta dada por la matriz Jacobiana de la transformacion de coordenadas; en el captulo proximo
veremos con todo detalle el origen y significado de esta afirmacion, cuando estudiemos el tema de
los campos tensoriales.
El ejemplo anterior no es en absoluto excepcional, en fsica hay multitud de magnitudes que se
definen como la integral de la correspondiente densidad en un dominio espacial determinado. En
todos esos casos encontraramos un comportamiento similar bajo transformaciones de coordena-
das, de modo que parece conveniente generalizar la anterior ley de transformacion de magnitudes
tensoriales (Ec. (2.1)) para incluir tambien estos tipos de comportamiento.
De acuerdo a los ejemplos anteriores vemos que en general hay dos factores extra que debemos
incluir para generalizar la ley de transformacion Ec. (2.1). En primer lugar hemos visto que en
algunos casos aparece un factor extra dado por det C elevado a una cierta potencia w; en segundo
lugar, en algunas ocasiones aparece un factor extra dado por el signo de det C. Dependiendo del
tipo de factor extra que debamos anadir a la ley de transformacion tensorial Ec. (2.1) tenemos estos
casos:
3.1. LEY DE TRANSFORMACION DE DENSIDADES TENSORIALES GENERALES 59
Los objetos cuyas componentes se transforman bajo un cambio de base segun una ley ten-
sorial multiplicada por el determinante de la matriz del cambio elevado a una potencia w se
denominan pseudotensores o densidades tensoriales de peso w, de modo que los verdaderos
tensores corresponden a densidades tensoriales de peso nulo. En algunos textos se denomina
tensores absolutos a los tensores y tensores relativos de peso w a los pseudotensores de pe-
so w. Claramente los pseudotensores se transforman bajo rotaciones de los ejes (cambios de
base con |C| = 1) como verdaderos tensores, de modo que si nos restringimos a este tipo de
cambios de coordenadas no observaremos diferencias entre tensores absolutos y relativos.
Por otra parte, los objetos cuyas componentes se transforman siguiendo una ley tensorial
multiplicada por el signo del determinante del cambio de base se denominan pseudo-tensores
axiales (con frecuencia sencillamente tensores axiales), mientras que los verdaderos tensores
se denominan tensores polares.
donde la paridad puede tomar los valores 1 o sign |C|, siendo |C| el determinante de la
matriz del cambio de base.
Dependiendo del valor del coeficiente , se denominan tensores polares a aquellos para los que
= 1 independientemente del cambio realizado, y tensores axiales a aquellos para los que
es igual al signo del determinante de C, que denotaremos a partir de ahora por s
|C|
s sign |C| = (3.4)
abs |C|
Claramente los tensores absolutos son tensores polares ( = 1) de peso w = 0. Por otra parte,
es facil ver que de acuerdo a esta definicion g es un (pseudo-) tensor axial de peso 1 y rango
tensorial nulo, es decir, una densidad escalar.
Para hacerse una idea intuitiva del significado de los parametros de paridad y peso, de manera
algo imprecisa podemos decir que dado un pseudo-tensor con peso w = 0, realmente es la integral
de este objeto en un cierto dominio lo que define un tensor absoluto, de tal forma que el peso de
la densidad tensorial esta relacionado con la dimensionalidad del dominio donde debe integrarse
esta para obtener un tensor absoluto. En cuanto a la paridad, el valor = 1 o s depende de si las
componentes del objeto que estamos describiendo se multiplican por 1, o no, bajo un cambio con
determinante negativo, es decir, al cambiar la orientacion de la base.
60 CAPITULO 3. DENSIDADES TENSORIALES
Los comportamientos de tipo pseudo-tensorial como los que acabamos de definir son muy fre-
cuentes en la practica. De hecho, de todas las magnitudes fsicas con comportamiento tensorial bien
definido aproximadamente la mitad son pseudotensores. Normalmente las denominaciones formales
de este tipo de objetos (pseudo-tensores, densidades tensoriales, etc.) se emplean cuando se quiere
recalcar las diferencias de comportamiento entre tensores absolutos y relativos o entre tensores po-
lares y axiales, pero en el lenguaje coloquial es bastante frecuente omitir este nivel de detalle para
simplificar la nomenclatura, de modo que suele denominarse sencillamente como tensor a cualquier
objeto cuyas componentes se transforman de acuerdo a la ley de transformacion generalizada Ec.
(3.3), quedando claro por el contexto si nos referimos a un tensor axial, a una densidad tensorial,
o a un tensor absoluto. Por ejemplo, en la practica es muy frecuente referirse a la funcion densidad
como un escalar en lugar de una densidad escalar. En el estudio de campos electromagneticos es
frecuente referirse al campo electrico como el vector E y al campo magnetico como el vector B,
omitiendo que en realidad E es un vector polar y B un vector axial.
Cuando se estudia calculo tensorial y geometra diferencial es muy importante comprender los
distintos tipos de comportamiento que pueden presentar estos objetos. No obstante, en la practica
los cambios de base mas frecuentes corresponden a simples rotaciones, con |C| = +1, en cuyo caso
todos estos comportamientos colapsan con el de los tensores absolutos (de hecho, en la practica es
raro emplear cambios de base con sign |C| = 1).
La paridad del producto tensorial es, por tanto, el producto de las paridades, mientras que el
peso es la suma de los pesos. Tambien vemos que esta regla de composicion no cambia si realizamos
la contraccion de cualquier par de ndices en el producto tensorial de A por B. Como consecuencia, el
producto tensorial y/o de contraccion de dos tensores de pesos opuestos genera un tensor absoluto,
el producto (tensorial y/o de contraccion) de dos tensores de paridad opuesta genera un tensor
axial, mientras que el producto de dos tensores con la misma paridad genera un tensor polar,
independientemente de la paridad de los tensores de partida, tal y como resumimos en la tabla 3.1.
Por otra parte el producto vectorial de dos vectores no cumple esta regla, ya que el producto
vectorial de dos vectores no involucra exclusivamente a los dos vectores considerados, sino que es
la contraccion del producto tensorial de estos vectores multiplicado tensorialmente por un tercer
factor, dado por el tensor alternante de Levi-Civita, como veremos mas adelante en este captulo.
Tensor B
axial polar
axial polar axial
Tensor A
polar axial polar
Cuadro 3.1: Paridad del tensor dado por el producto tensorial o de contraccion (respecto de
cualquier par de ndices) de dos tensores A y B.
En la mayora de los casos los espacios vectoriales con los que trabajamos son orientables. Esto
esta relacionado con la topologa del espacio y significa que en general no es posible transformar
cualquier objeto definido en este espacio en su imagen especular mediante rotaciones y traslaciones
exclusivamente. Por ejemplo, R3 es un espacio orientable dado que no es posible hacer coincidir
la mano derecha con la izquierda por medio de traslaciones y rotaciones, sino que es necesario
introducir al menos una reflexion. En el analisis de curvas cerradas planas la orientabilidad de R2
nos permite distinguir los dos sentidos de giro posibles. Por otra parte, en el analisis de superficies
en 3 dimensiones la orientabilidad de R3 nos permite distinguir las dos formas posibles de definir
la normal a cualquier superficie (hacia fuera o hacia dentro si la superficie es cerrada), y en
general nos permite distinguir un objeto de su imagen especular, en el caso en que esta no pueda
superponerse con aquel. Los objetos que cumplen esta propiedad se llaman quirales, un cubo no
es quiral porque puede superponerse con su imagen especular, pero la mano derecha y la izquier-
da s son quirales. La existencia de objetos quirales tiene consecuencias muy importantes en el
mundo fsico. Por ejemplo, en bioqumica es frecuente que las moleculas quirales (denominadas
enantiomeros) presenten comportamientos biologicos totalmente distintos.
El ejemplo clasico de espacio no orientable es la banda de Moebius, dada por la superficie
que se obtiene al pegar los extremos opuestos de una banda despues de girar uno de los extremos
180 grados respecto al eje longitudinal de la banda (Fig. 3.1). Si consideramos el vector normal a
una banda de Moebius en un punto cualquiera, vemos que al desplazar este vector a lo largo de
la superficie recorriendo el bucle una vez encontramos el vector de partida multiplicado por 1
(encontramos este resultado al recorrer el bucle un numero impar de veces, y recuperamos el vector
de partida al recorrer el bucle un numero par de veces). Esto implica que la banda de Moebius tiene
una unica cara (y un unico borde), y por tanto no es orientable. En un espacio con estructura similar
a la banda de Moebius cualquier objeto es indistinguible de su imagen especular, ya que basta con
hacer que dicho objeto recorra un cierto ciclo para hacerlo coincidir con su imagen especular. Esto
no es posible en espacios orientables.
transformaciones con determinante +1; el valor absoluto 1 indica que las rotaciones no introducen
cambios en el elemento de volumen y el signo + que no introducen cambios en la orientacion del
espacio. En general cuando una matriz de cambio de base tiene determinante negativo significa que
en el cambio hay una inversion de los ejes, o (equivalentemente) una permutacion impar de los
vectores de la base (seguida posiblemente de una o varias rotaciones).
De las propiedades de los determinantes se deduce que la relacion definida por la orientacion
es una relacion de equivalencia, de modo que las bases de un espacio vectorial orientable estan
clasificadas en dos clases de equivalencia, correspondientes a las dos orientaciones posibles. Se define
como orientacion positiva la de la base canonica y su clase de equivalencia, y como orientacion
negativa la de todas las bases relacionadas con la base canonica por medio de una matriz de cambio
con determinante negativo.
Es interesante observar que la orientacion de una base es una propiedad que no puede definirse
de manera geometrica sin hacer referencia a la orientacion contraria. Es el contraste entre ambas
orientaciones posibles lo que define esta propiedad. Tambien es interesante observar que todas
las bases con orientacion positiva estan conectadas mediante transformaciones invertibles que se
pueden construir como composicion de transformaciones infinitesimales a partir de la identidad,
mientras que las transformaciones que cambian la orientacion de la base no pueden construirse como
superposicion de transformaciones infinitesimales invertibles a partir de la identidad. El motivo es
que construir una matriz de cambio de base por medio de la superposicion de transformaciones
infinitesimales a partir de la identidad implica que C vara de manera continua desde la identidad a
medida que aplicamos estas transformaciones infinitesimales. Por tanto, si partimos de la identidad
(C = 1, |C| = +1) y queremos llegar a una transformacion con |C| < 0, necesariamente en el camino
hemos debido pasar en algun punto por una matriz C con |C| = 0 (ya que el determinante vara de
manera continua con C), pero esa transformacion no es admisible como cambio de base ya que no
es invertible. Esto hace que desde el punto de vista topologico las aplicaciones lineales invertibles
(es decir, con determinante no nulo) dan lugar a un espacio que tiene dos partes (correspondientes
3.3. SIMBOLO ALTERNANTE DE LEVI-CIVITA 63
a los dos signos posibles del determinante) que no pueden conectarse por medio de aplicaciones
continuas, es decir, dos partes no conexas. De estas dos partes, la parte con determinante positivo
es la componente conexa con la identidad de este grupo de transformaciones, mientras que la
parte con determinante negativo es la componente no conexa con la identidad.
Para fijar ideas veamos el smbolo de Levi-Civita en 2 dimensiones, dado por ij . En este caso
los ndices ij solo pueden tomar los valores 1 y 2, lo que hace que el caso bidimensional sea un poco
trivial, ya que solo hay 2! = 2 maneras posibles de ordenar los valores 1 y 2 sin repeticion: por
un lado tenemos 12 que es la permutacion trivial y tiene paridad positiva y por otro 21, que tiene
paridad negativa (es decir, es una permutacion impar) ya que para obtener la permutacion 21 a
partir de la permutacion trivial 12 hemos tenido que realizar un numero impar (1) de intercambios
(o trasposiciones). En definitiva los valores posibles de ij son
12
12 = = +1
ij
ij = = 21 = 21 = 1 (3.8)
11 22
11 = = 22 = = 0
64 CAPITULO 3. DENSIDADES TENSORIALES
En este caso los ndices ijk pueden tomar los valores 1, 2 y 3, de modo que existen 3! = 6 permuta-
ciones diferentes, 3 de ellas con paridad positiva (123, 231, 312) y las otras 3 con paridad negativa
(132, 213, 321). De manera que los valores posibles de ijk son
{
123 = 231 = 312 = +1
ijk = (3.10)
132 = 213 = 321 = 1
siendo nulos todos los restantes, ya que tienen algun ndice repetido. Los valores de la version
contravariante (ijk ) se definen de manera analoga.
Para deducir como se transforma este objeto bajo el cambio de base dado por la matriz C
recordamos que, por definicion, el determinante de C esta dado por
Como las componentes de ijk son las mismas independientemente de la base encontramos
Por tanto el smbolo ijk sera un tensor 3-covariante de no ser por el factor |C|1 , este factor hace
que ijk sea un pseudotensor 3-covariante de peso 1. Por otra parte, ijk s se transforma como
un tensor 3-covariante bajo transformaciones ortogonales (C 1 = C T ) propias (|C| = 1), es decir,
bajo rotaciones de los ejes.
La version 3-contravariante del smbolo alternante de Levi-Civita se define analogamente, como
el objeto dado en cualquier base por
+1 si ijk es una permutacion par de 123
ijk = 1 si ijk es una permutacion impar de 123 (3.13)
0 si hay algun ndice repetido
sus valores son los mismos que en la version covariante, como ya hemos comentado, y puede com-
probarse facilmente que ijk es un pseudotensor 3-contravariante de peso +1 (ver problema P.3.6).
Por otra parte, por su propia definicion esta claro que los smbolos alternantes de Levi-Civita ijk
y ijk son antisimetricos bajo permutaciones de cualquier par de ndices, y ademas son isotropos
bajo cualquier cambio de base.
de peso opuesto de g y ijk se cancelan, resultando un tensor axial. Definimos entonces el objeto
ijk
ijk gijk (3.14)
como el tensor alternante de Levi-Civita. Claramente ijk es un tensor axial 3-covariante
Analogamente, por medio de la contraccion con el tensor metrico dual de los 3 ndices de ijk
encontramos la version 3-contravariante de este objeto, dada por
ijk
ijk = g ip g jq g kr pqr = (3.16)
g
ijk
= g ip g jq g kr gpqr ijk = g g ip g jq g kr pqr (3.17)
g
Como decamos antes, todas las definiciones anteriores se generalizan al caso de n dimensiones
de manera analoga. De todas formas en este captulo nos centraremos en el caso de 3 dimensiones
por su especial relevancia, en particular para la definicion tensorial del conocido producto vectorial
de dos vectores, tal y como veremos a continuacion.
con modulo dado por la superficie del paralelogramo definido por los vectores x e y,
y con sentido tal que la terna ordenada {x, y, x y} tiene orientacion positiva.
c
x y = xy sin xy (3.18)
c el angulo formado por x e y. Por otra parte, la condicion que determina el sentido de
siendo xy
x y implica la propiedad anticonmutativa del producto vectorial x y = y x, que a su vez
implica x x = 0, x R3 . Esta condicion tambien implica que las componentes del producto
vectorial permancen invariantes bajo una inversion de los ejes, es decir, bajo el cambio de base
definido por la matriz con componentes Cji = ji , lo que convierte al producto vectorial en un
vector axial.
i j = k, k i = j, jk =i (3.19)
En ese caso, esta informacion junto con la propiedad anticonmutativa es suficiente para calcular el
producto vectorial de cualquier par de vectores. Pero
En algunos textos se cita sin mayor justificacion la formula que permite calcular productos
vectoriales en coordenadas arbitrarias (Ec. (3.21), equivalentemente Ec. (3.22)), sin embargo resulta
instructivo deducir esta formula a partir de la definicion, tal y como se muestra a continuacion.
Como ya hemos dicho mas arriba, dado que este producto es lineal basta conocer la tabla
de productos vectoriales de los vectores de la base, independientemente de la metrica y de la
base que estemos empleando. Consideremos entonces el producto vectorial de los vectores ei por
ej , pertenecientes a una base arbitraria {e1 , e2 , e3 }. Suponiendo que i = j (en caso contrario el
producto es nulo), aplicando la definicion vemos que el producto ei ej sera proporcional a ek , con
3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES 67
donde hemos aplicado las definiciones de tensor metrico y tensor metrico inverso. Pero el elemento
g kk de la inversa del tensor metrico esta dado precisamente por el menor que resulta de suprimir
la fila y la columna con ndice k en dicha matriz, dividido por el determinante (g)
kk gii gij
g = g g /g
ji jj
ya que estamos suponiendo que ijk son una permutacion par de 123. Entonces ei ej = gek
para cualquier combinacion de ndices ijk dada por una permutacion par de 123. Como el producto
vectorial es antisimetrico esta relacion puede escribirse como
ei ej = gijk ek = ijk ek (3.20)
que es valida para cualquier valor de i, j y k. A partir de esta relacion el producto vectorial de 2
vectores cualesquiera x e y puede calcularse por medio de
x y = i ei , i = ijk xj y k (3.22)
x (y 1 + y 2 ) = x y 1 + x y 2 (3.23)
(x1 + x2 ) y = x1 y + x2 y (3.24)
propiedad anticonmutativa
x y = y x (3.26)
a (b c) = b (c a) = c (a b) (3.27)
a (b c) = b (a c) c (a b) (3.28)
(a b) c = b (a c) a (b c) (3.29)
identidad de Jacobi
El producto vectorial no es asociativo, pero cumple la identidad de Jacobi, que se obtiene de
forma trivial calculando cada termino por medio de la identidad BACCAB
x (y z) + y (z x) + z (x y) = 0 (3.30)
De las propiedades anteriores se deduce que el producto vectorial tambien cumple las siguien-
tes propiedades interesantes:
identidad de Binet-Cauchy
(a b) (c d) = (a c) (b d) (a d) (b c) (3.31)
producto (a b) (c d)
(a b) (c d) = c (a (b d)) d (a (b c))
= b (a (c d)) a (b (c d)) (3.32)
R(d)x = x + dx (3.34)
por tanto la aplicacion R(d) es igual a la identidad mas una pequena perturbacion proporcional
al angulo d, que definimos como Ad
R(d) = 1 + Ad (3.35)
Por definicion esta aplicacion es ortogonal, de modo que (1 + Ad)1 = 1 + AT d. Como conse-
cuencia, despreciando terminos del orden de (d)2 encontramos
A + AT = 0 (3.36)
(por simplicidad en este apartado consideramos solo espacios con metrica Eucldea) de modo que
A es una aplicacion antisimetrica.
En un espacio tridimensional A solo tendra 3 componentes no nulas. Si suponemos que la
rotacion R(d) corresponde a una rotacion de angulo d = dt, donde t representa el tiempo y
la velocidad angular, y definimos las 3 componentes no nulas de A como
( )
d 0 3 2
A = 3 0 1 (3.37)
dt 2 1 0
dx
dx = (Ad) x = ( x) dt, es decir v =x (3.38)
dt
donde el vector axial , dado por las componentes 1 , 2 , 3 , esta orientado segun el eje de giro y
su norma es igual a la velocidad angular = d/dt.
70 CAPITULO 3. DENSIDADES TENSORIALES
La respuesta es afirmativa, pero para definir esta generalizacion, dada por el producto exterior de
p-formas, debemos considerar objetos distintos de los familiares vectores.
Las p-formas son aplicaciones multilineales de rango p totalmente antimetricas (es decir, an-
timetricas bajo permutacion de cualquier par de ndices), en otras palabras, las p-formas se corres-
ponden con los tensores covariantes totalmente antimetricos de rango p. Por ejemplo, los escalares
son 0-formas, los vectores covariantes son 1-formas, los tensores covariantes antisimetricos de rango
tensorial 2 son 2-formas, etc.
En el caso de los tensores hemos definido una operacion producto tensorial que nos permite
definir objetos tensoriales de rango superior como producto tensorial de objetos tensoriales. Con
las p-formas existe una operacion analoga, llamada producto exterior de p-formas, que se define
como el producto tensorial antisimetrizado en todos los ndices. El motivo por el cual el producto
exterior no coincide con el producto tensorial es el siguiente: si calculamos el producto tensorial
de dos tensores covariantes totalmente antisimetricos (p. ej. Aij y Bpq ) el objeto resultante es un
tensor covariante cuyo rango es la suma de los de A y B (Aij Bpq = Cijpq en este caso) antisimetrico
respecto a permutaciones de los ndices heredados de cada uno de los factores por separado (ij
por un lado y pq por otro en este caso), pero nada nos garantiza que sea totalmente antisimetrico,
es decir, Aij Bpq = Cijpq podra no ser simetrico bajo permutaciones de ndices cruzados, como j
con p por ejemplo, de modo que el producto tensorial de dos p-formas no es necesariamente una
p-forma. Con el objeto de definir un producto de p-formas cuyo resultado sea otra p-forma se define
el producto exterior (denotado por , exterior product o wedge producto en la literatura en lengua
inglesa) como el producto tensorial antisimetrizado en todos los ndices. Por ejemplo, el producto
exterior de dos vectores esta dado por
xy =xyyx (3.39)
(x y)ij = xi yj xj yi (3.40)
que claramente recuerda al producto vectorial. El producto vectorial de los vectores covariantes xi
y yj contiene la contraccion del tensor xj yk con el tensor antisimetrico en todos sus ndices ijk . Si
descomponemos el tensor xj yk en sus partes simetrica y antisimetrica
1 1
xj yk = (xj yk + xk yj ) + (xj yk xk yj ) (3.41)
2 2
es evidente que solo la parte antisimetrica produce una contribucion no nula, de forma que las
componentes i del producto vectorial pueden escribirse como
1 ijk
i = jk (3.42)
2 g
3.5. INTRODUCCION AL PRODUCTO EXTERIOR DE P -FORMAS 71
jk xj yk xk yj (3.43)
Como consecuencia vemos que, esencialmente, el producto vectorial de dos vectores x e y esta re-
lacionado con el producto tensorial antisimetrizado de dichos vectores, dado por x y y x, con
componentes covariantes jk = xj yk xk yj , es decir, con el producto exterior.
En espacios n-dimensionales los tensores covariantes totalmente antisimetricos (antisimetricos
en todos sus ndices), junto con la operacion de producto exterior (producto tensorial antisimetri-
zado en todos los ndices) definen un algebra, llamada algebra exterior o algebra de Grassmann. Las
relaciones de simetra que cumplen los tensores covariantes totalmente antisimetricos hacen que un
tensor covariante antisimetrico de rango p, que en principio tiene np componentes respecto de la
base ei1 eip , pueda describirse por medio de un numero reducido de componentes respecto
de la base ei1 eip , donde los ndices i1 . . . ip cumplen la relacion i1 < i2 < . . . < in1 < ip .
Esto se debe a que (debido a la anti-simetra del tensor) todas las componentes no incluidas en este
conjunto o bien son nulas, o bien pueden escribirse en funcion dicho conjunto. Las componentes de
los tensores antisimetricos respecto de la base ei1 eip (con i1 < . . . < ip ) forman el conjunto
de componentes mnimo necesario para manejar este tipo de objetos, y se denominan componentes
estrictas. Por ejemplo, en 3 dimensiones las componentes estrictas de wjk = xj yk xk yj son 12
13 y 23 , ya que todas las restantes son, o bien nulas, o bien iguales a estas multiplicadas por 1.
Las densidades tensoriales covariantes rango p totalmente antisimetricas, descritas por medio
de sus componentes estrictas, cumplen todas las propiedades necesarias para formar un espacio
vectorial, cuyos elementos se denominan p-formas. El numero de componentes estrictas que tiene
un tensor totalmente antisimetrico de rango p en un espacio de n dimensiones esta dado por el
numero de opciones que existen para escoger p objetos sin repeticion, de un conjunto de n objetos,
es decir, por el coeficiente binomial ( )
n n!
=
p p!(n p)!
por(tanto
) las p-formas definidas sobre un espacio n-dimensional pertenecen a un espacio vectorial
n
de p dimensiones. Es importante observar que no puede haber tensores antisimetricos no nulos
( )
de rango mayor que n, ya que el coeficiente binomial np es nulo para cualquier p > n (el numero
de posibilidades distintas de escoger p objetos sin repeticion en un conjunto de n objetos es nulo si
p > n). Por otra parte, en vista de la simetra de los coeficientes binomiales
( ) ( )
n n
=
p np
x y = (x y) , x y = (x y) (3.44)
La gran diferencia es que el producto vectorial solo esta definido para el caso de espacios de 3
dimensiones, mientras que el producto exterior es aplicable en cualquier dimensionalidad.
72 CAPITULO 3. DENSIDADES TENSORIALES
n 1 2 3 4 5 ...
(n )
2 0 1 3 6 10 ...
Cuadro 3.2: Dimensionalidad del producto exterior de dos vectores en funcion de la dimen-
sionalidad (n) del espacio vectorial al que pertenecen.
3.6. Problemas
P.3.1. Calcule la matriz del cambio de base correspondiente a intercambiar dos vectores cualesquiera
de la base canonica en n dimensiones que determinante tiene esta matriz de cambio de base?
P.3.2. Repita el ejercicio anterior para el caso de una permutacion con paridad positiva de los
vectores de la base.
P.3.3. Repita el ejercicio anterior para el caso de una permutacion con paridad negativa.
P.3.4. Demostrar que g es un pseudo-tensor axial de peso 1.
P.3.5. Demostrar que 1/ g es un pseudo-tensor axial de peso 1.
P.3.9. Demostrar que ijk = ijk / g es un tensor axial 3-contravariante.
P.3.10. Demostrar que el producto vectorial de dos vectores polares produce un vector axial.
P.3.11. Demostrar que el producto vectorial de un vector axial por un vector polar produce un vector
polar.
P.3.12. Verifique que se cumplen todas las propiedades generales del producto vectorial (Ec. (3.23)
Ec. (3.32)) usando un sistema de coordenadas arbitrarias.
P.3.2. La forma mas sencilla de hacer una permutacion de paridad positiva es por medio de un
numero par (p. ej. 2) de transposiciones (es decir intercambios i por j y viceversa). Por tanto
una posible permutacion con paridad positiva de la base canonica consiste en intercambiar
entre s dos vectores i y j y posteriormente intercambiar entre s otros dos vectores p y q.
La matriz de cambio de base correspondiete esta dada por la matriz identidad n-dimensional
donde en primer lugar intercambiamos las columnas i y j, y a continuacion intercambiamos
las columnas p y q. Por las propiedades de los determinantes el signo del determinante de
dicha matriz de cambio de base es +1.
Para fijar ideas ponemos un ejemplo concreto en 3 dimensiones, la base de partida es la
habitual {i, j, k}. Intercambiamos en primer lugar los vectores 1 y 2 de la base y en segundo
lugar los 2 y 3, la nueva base es {j, k, i}, la matriz de cambio de base es
0 0 1
C = 1 0 0
0 1 0
P.3.3. Si partimos de la matriz identidad n-dimensional y realizamos una permutacion con paridad
negativa de columnas (es decir, un numero impar de transposiciones sucesivas) la matriz
resultante es la matriz del cambio de base correspondiente a la permutacion realizada sobre
las columnas, es decir, sobre los vectores de la base (recordar la definicion de matriz de cambio
de base, apartado 1.4.1). Por las propiedades de los determinantes el determinante de dicha
matriz sera 1.
P.3.4. Partimos de la ley de transformacion del determinante del tensor metrico bajo el cambio de
base C:
g = |C|2 g
74 CAPITULO 3. DENSIDADES TENSORIALES
P.3.6. Tenemos que demostrar que pqr = |C| Dip Djq Dkr ijk .
Por definicion, las componentes del smbolo alternante de Levi-Civita son las mismas para
cualquier base, tanto en su forma 3-covariante como en su forma 3-contravariante.
Para encontrar la transformacion de la forma contravariante podemos emplear un desarrollo
analogo al utilizado para la forma covariante, pero considerando la matriz inversa del cambio
de base:
|D| = Di1 Dj2 Dk3 ijk
De nuevo, como las componentes deben ser las mismas para cualquier base podemos escribir:
pqr = |D|1 Dip Djq Dkr ijk = |C| Dip Djq Dkr ijk
ijk = g g ip g jq g kr pqr
ijk = g g ip g jq g kr pqr
Sustituyendo el cambio de base correspondiente a cada uno de los factores que aparecen en
el lado derecho encontramos
ijk = |C| g Dai g ab Dcj g cd Dek g ef bdf = |C| Dai Dcj Dek ace
P.3.7. Partimos de la definicion de ijk dada en el enunciado. La expresion de ijk tras un cambio
de base vendra dada por
ijk = gijk
Teniendo en cuenta las leyes de transformacion de g (problema P.3.4) y de ijk (Eq. (3.12))
llegamos a
ijk = sCip Cjq Ckr pqr
con lo que queda demostrado el comportamiento tipo pseudotensor tensor axial 3-covariante.
Ahora podemos utilizar el valor del determinante del tensor metrico dual g 1 = det(g ij ):
g 1 = g 1p g 2q g 3r pqr
y escribir
g 1 ijk = g ip g jq g kr pqr
Sustituyendo en la expresion de arriba llegamos al resultado pedido
ijk ip jq kr g ijk ijk
=g g g gpqr = =
g g
P.3.9. El resultado pedido se obtiene de manera trivial multiplicando las leyes de transformacion
obtenidas en los ejercicios P.3.5 y P.3.6.
x y = i ei
esto quiere decir que sus componentes i se transforman bajo el cambio de base C segun la
ley
i = sCij j ,
donde s es el signo del determinante de la matriz de cambio de base s = sign |C|.
En el texto hemos visto que
i = gijk xj y k
por lo tanto, el aspecto del tensor desde la nueva base vendra dado por sus nuevas componentes
i = gijk xj y k = gijk Dnk Dm
j m n
x y
tendremos
i = gijk xj y k
= s gCip Cjq Ckr pqr Dnk Dm
j m n
x y
p q r m n
= s gCi m n pqr x y
= sCip gpqr xq y r
= sCip p
y as queda demostrado que el producto vectorial es un tensor axial.
P.3.11. Consideramos los vectores x e y, su producto vectorial esta dado por
i = ijk xj y k = gijk xj y k
Suponemos que el vector x es un vector polar, mientras que el vector y es axial. Por tanto,
bajo un cambio de base C las componentes de estos vectores cambian de acuerdo a
xi = Cji xj
y i = sCji y j
Sustituyendo estos cambios encontramos
i = s gCpj Cqk ijk xp y q
Multiplicando esta expresion por la matriz del cambio y recordando las reglas de transforma-
cion del tensor alternante de Levi-Civita obtenemos
Cri i = s gCri Cpj Cqk ijk xp y q = rpq xp y q
pero el lado derecho de esta ultima expresion es precisamente la definicion de wr , entonces
vemos que
wr = Cri i
tal y como corresponde a las componentes covariantes de un vector polar. Con esto queda
demostrando que el producto vectorial de un vector axial por un vector polar produce un
vector polar.
P.3.12. Demostracion de las propiedades generales del producto vectorial
Segun hemos visto el producto vectorial de dos vectores x e y esta dado por
x y = ijk xj y k ei
propiedad distributiva
x (y 1 + y 2 ) = x y 1 + x y 2
(x1 + x2 ) y = x1 y + x2 y
La demostracion de estas dos propiedades es trivial, para la primera basta poner y =
y 1 + y 2 , con componentes y1k e y2k respectivamente (donde el subndice indica que nos
referimos a las componentes de y 1 en el primer caso y de y 2 en el segundo). Sustituyendo
estas componentes en la definicion del producto, operando y agrupando los resultados se
llega al resultado pedido. Para la segunda propiedad basta con operar de manera similar
con el vector x.
3.6. PROBLEMAS 77
propiedad asociativa
R, (x y) = (x) y = x (y)
Sustituyendo directamente
( ) ( ) ( )
ijk xj y k = ijk xj y k = ijk xj y k
donde en el ultimo paso hemos aplicado que ikj = ijk , que se cumple por definicion
de smbolo alternante de Levi-Civita.
volumen del paraleleppedo formado por tres vectores
a (b c) = b (c a) = c (a b)
En la relacion ec. (3.33) hemos visto que a (b c) representa el volumen del parale-
leppedo formado por a, b y c, cuyo valor esta dado por el determinante indicado en
dicha formula. Por las propiedades de los determinantes el resultado permance invariante
bajo permutaciones cclicas de los vectores.
regla BACCAB de Lagrange
a (b c) = b (a c) c (a b)
(a b) c = b (a c) a (b c)
b c = slm bl cm es = g sk slm bl cm ek
agrupando
a (b c) = g ks g iq ijk slm aj bl cm eq
El producto g ks g iq ijk puede calcularse por medio de la relacion
= g x g y g z xyz
78 CAPITULO 3. DENSIDADES TENSORIALES
(donde los ndices x, y, z son solo ndices, no estan relacionados con las coordenadas
cartesianas). Multiplicando esta relacion por g encontramos
g = g y g z yz
Teniendo en cuenta este resultado, que g ij es simetrico y que ijk permanece invariante
bajo permutaciones cclicas de sus ndices encontramos
g ks g iq ijk = g sk g qi jki = gj sq
donde para llegar a este resultado hemos sustituido en la relacion anterior los cambios
de ndices siguientes:
s, y k, q, z i, j
Sustituyendo encontramos
a (b c) = gj sq slm aj bl cm eq = sq slm a bl cm eq
ijk imn = jm kn jn km
los cambios
i s, j l, k m, m q, n
encontramos
sq slm = slm sq = lq m
l m
q
y por tanto
a (b c) = b (a c) c (a b)
con lo que queda demostrada la conocida identidad BACCAB independientemente de
la base empleada y de la metrica de R3 .
Una vez hemos demostrado esta identidad, para demostrar la otra relacion basta con
aplicar dos veces la propiedad antisimetrica del producto vectorial
a (b c) = (c b) a = b (a c) c (a b)
x (y z) + y (z x) + z (x y) = 0
3.6. PROBLEMAS 79
x (y z) = y (x z) z (x y)
y (z x) = z (y x) x (y z)
z (x y) = x (z y) y (z x)
Sumando estas tres ecuaciones y recordando que el producto escalar es simetrico obte-
nemos la identidad de Jacobi de manera trivial.
identidad de Binet-Cauchy
(a b) (c d) = (a c) (b d) (a d) (b c)
Calculamos el lado izquierdo a partir de la relacion Eq. (3.27) para productos triples
(a b) (c d) = c [d (a b)]
d (a b) = a(b d) b(a d)
(a b) (c d) = c (a (b d)) d (a (b c))
= b (a (c d)) a (b (c d))
Desarrollamos el lado izquierdo por medio de la regla BAC-CAB de las dos formas
posibles
(a b) (c d) = c [(a b) d] d [(a b) c]
(a b) (c d) = b [a (c d)] a [b (c d)]
La segunda de estas relaciones corresponde directamente a la segunda igualdad que
queramos demostrar. Para obtener la primera igualdad basta con calcular los productos
triples que han aparecido en la primera de las relaciones anteriores por medio de la
relacion Eq. (3.27).
Claramente gii gjj gij gji puede escribirse como el determinante de la matriz
gii gij
gji gjj
que se obtiene al eliminar del tensor metrico la fila k y la columna k, ya que estamos en un
espacio tridimensional y por hipotesis k es distinto de i y de j (y ademas i = j). Finalmente
nos queda relacionar este resultado con el elemento g kk del tensor metrico dual. Como el
tensor metrico dual esta dado por la inversa del tensor metrico, el elemento g kk es el cociente
resultante de dividir el menor que se obtiene al suprimir la fila y la columna con ndice k en el
tensor metrico, dividido por el determinante del tensor metrico (g), ya que por hipotesis ijk
son una permutacion par de 123 (de lo contrario sera negativo y en esta ultima relacion
aparecera un factor 1). Teniendo esto en cuenta deducimos que 2 = g y tomando la raz
cuadrada llegamos a
ei ej = gek
que es valida siempre y cuando ijk sea una permutacion par de 123. En caso contrario basta
con recordar que ei ej = ej ei donde jik son (en este caso) una permutacion par de
123, de modo que en ese caso se obtiene el resultado anterior multiplicado por 1. A todo
esto hasta ahora hemos asumido que i = j, en caso contrario por definicion sabemos que
ei ej = 0. Poniendo en comun estas 3 posibilidades llegamos a la relacion pedida
ei ej = gijk ek = ijk ek
3.7. Bibliografa
Este captulo se basa principalmente en el texto de Bowen y Wang [2], junto con los de Lichne-
rowicz [10] y Bishop y Goldberg [1]. Para mayor profundidad sobre p-formas y calculo exterior se
recomienda el texto de Frankel [7].
Captulo 4
Campos tensoriales
El calculo tensorial es relevante en fsica por sus aplicaciones en teoras de campos, es decir,
teoras donde las variables fsicas pueden representarse por medio de funciones del espacio y el
tiempo. Este tipo de descripcion de la realidad aparecio con la teora de la gravitacion de Newton
(16431727) y se extendio considerablemente a lo largo del s:xix con el electromagnetismo de
Maxwell (18311879) y las ecuaciones de Navier-Stokes para la mecanica de fluidos (Euler (1707
1783), Lagrange (17361813), Navier (17851836), Stokes (18191903), etc.). Desde inicios del s:xx
este tipo de descripcion del mundo fsico tambien se ha aplicado en relatividad (Einstein (1879
1955)) y en mecanica cuantica (Schrodinger (18871961), Heisenberg (19011976), etc.).
Generalmente los campos tensoriales se definen sobre conjuntos de puntos que no cumplen todas
las propiedades necesarias como para formar un espacio vectorial, pero que localmente s tienen
una estructura similar a un espacio vectorial. Este tipo de conjuntos se denominan variedades
(manifolds en la literatura en ingles). Normalmente trabajaremos con variedades diferenciables, es
decir, variedades lo suficientemente regulares como para que en ellas sea posible definir operaciones
de calculo, como derivadas e integrales.
Cuando se habla de un campo tensorial definido sobre una variedad diferenciable, V, se da por
hecho que cada punto r V es el origen de un espacio vectorial denominado espacio tangente,
definido como la envolvente lineal de las tangentes en r a todas las curvas contenidas en V que
pasen por r. El espacio tangente a V en r es, por tanto, el espacio definido por todas las direcciones
posibles que podemos tomar para pasar por dicho punto sin salirnos de la variedad. El conjunto
de los espacios tangentes definidos sobre todos los puntos de la variedad forma el fibrado tangente.
Cada espacio tangente tiene su correspondiente espacio dual, denominado espacio co-tangente, y
la coleccion de espacios cotangentes que obtenemos al recorrer toda la variedad forma el fibrado
cotangente. El producto tensorial de s copias de cada espacio tangente por r copias de su dual
genera una familia de espacios producto tensorial definidos sobre la variedad de partida como
funcion del punto. A este espacio producto tensorial es al que pertenecen los tensores r-covariantes
s-contravariantes definidos sobre la variedad como campos tensoriales.
En este captulo comenzaremos con una breve introduccion a las variedades diferenciables y
los espacios tangente y cotangente. Veremos las parametrizaciones que se emplean para describir
las variedades y las bases a que estas dan lugar en los fibrados tangente y cotangente. Finalmente
extenderemos los conceptos definidos en los captulos precedentes al caso de campos tensoriales en
variedades diferenciables.
81
82 CAPITULO 4. CAMPOS TENSORIALES
Dos conjuntos son topologicamente equivalentes cuando podemos convertir uno en otro y vice-
versa de manera continua, es decir, mediante deformaciones pero sin introducir cortes ni pegar
regiones que no estuviesen inicialmente en contacto, ya que esto ultimo implica introducir un corte
en la funcion inversa. La condicion de continuidad impone que dos puntos proximos en el conjunto
de partida (es decir, que pertenezcan a un cierto entorno en el conjunto de partida), esten tambien
proximos en el conjunto de llegada, lo cual no se cumple si la funcion de transformacion (o su
inversa) introduce cortes. La condicion de continuidad tambien presupone que los dos conjuntos
de puntos considerados son espacios topologicos, es decir, espacios en los que se pueden definir no-
ciones como proximidad y continuidad. Las transformaciones continuas con inversa continua entre
espacios topologicos se denominan homeomorfismos.
Una variedad n-dimensional puede definirse, por tanto, como un espacio topologico que admite
un sistema de coordenadas n-dimensional en un cierto entorno abierto de cada punto. Desde el
punto de vista topologico una variedad n-dimensional es localmente identica al correspondiente
espacio vectorial de n dimensiones (Rn en la mayora de los casos). Es decir, cada entorno de
la variedad puede deformarse de manera continua hasta hacerlo coincidir con el correspondiente
4.1. VARIEDADES DIFERENCIABLES 83
entorno del espacio vectorial y viceversa. La gran diferencia es que, en general, esta correspondencia
(homeomorfismo) entre la variedad y el espacio vectorial solo puede definirse localmente, pero no
globalmente, de forma que globalmente considerada la variedad puede no ser topologicamente
equivalente a ningun espacio vectorial.
Otra diferencia importante es la metrica: en general la distancia entre dos puntos de la variedad
medida a lo largo de la variedad sera diferente de la distancia entre estos dos puntos medida a
lo largo del espacio vectorial al que esta variedad es localmente equivalente, ya que en general
los homeomorfismos introducen deformaciones que no conservan las distancias. En particular esto
sucedera siempre que consideremos variedades dotadas de cierta curvatura localmente homeomorfas
al espacio Eucldeo Rn , que es plano.
Esto es lo que sucede p. ej. en los mapas terrestres. Al hacer corresponder una superficie esferi-
ca con una region del plano, el mapa no solo introduce un factor de escala, sino tambien una
distorsion en las distancias, y por tanto tambien en las areas. Muchos mapas terrestres se basan
en la proyeccion Mercator, que introduce una distorsion creciente a medida que nos alejamos del
ecuador, que finalmente se traduce en que las regiones proximas a los polos tengan sobre el mapa
un tamano aparente muy superior al real. Dependiendo de la funcion de proyeccion empleada las
regiones distorsionadas seran distintas y tambien el tipo de distorsion introducida, pero sea cual sea
el tipo de proyeccion, siempre que representemos una superficie con curvatura en un mapa plano
habra regiones distorsionadas.
mensionales se definen como las curvas de nivel de funciones de dos variables f (x, y), dadas por los
puntos del plano que cumplen f (x, y) = k, lo cual puede visualizarse como la interseccion entre la
superficie z = f (x, y) y el plano z = k.
Aunque cualquier variedad unidimensional contenida en el plano puede definirse como el con-
junto de puntos que cumple una relacion tipo f (x, y) = 0, el recproco no es cierto. Dependiendo
de la funcion f considerada hay casos en los que la ecuacion anterior no define una variedad uni-
dimensional, p. ej., dada la funcion plana f (x, y) = a (que a cualquier punto (x, y) le hace
corresponder el numero constante a, siendo a un numero real arbitrario), el conjunto de puntos que
cumple f (x, y) = 0 es el conjunto vaco para cualquier valor de a, excepto para a = 0 en cuyo caso
obtenemos todo el plano.
En los ejemplos anteriores nos hemos centrado en curvas planas, pero tambien existen curvas
que no estan contenidas en un plano, sino que recorren espacios de dimensionalidad superior. Por
ejemplo, las ecuaciones parametricas
x = R cos , y = R sin , z = , R
definen una espiral infinita de radio R contenida en R3 .
En general una variedad unidimensional es cualquier conjunto de puntos tal que que en un
entorno de cada punto pueda parametrizarse por medio de un unico parametro.
Las superficies proporcionan el siguiente ejemplo interesante de variedad. De manera analoga
al caso unidimensional, la grafica de una funcion de 2 variables, z = f (x, y), es una variedad
bidimensional. Con mucha frecuencia las superficies de nivel de las funciones de 3 variables, dadas
por la solucion de f (x, y, z) = k, o el conjunto de puntos de R3 definido por una relacion del tipo
f (x, y, z) = 0, forman variedades bidimensionales (vease Fig. 4.3). Por ejemplo, dada la funcion
f (x, y, z) = x2 + y 2 + z 2 , las superficies de nivel de esta funcion son superficies esfericas de radio
k 1/2 centradas en el origen. Este ejemplo tambien es interesante para observar que, en general,
una superficie cualquiera considerada globalmente no sera topologicamente equivalente a R2 , pero
localmente s, ya que si nos fijamos en un entorno suficientemente pequeno alrededor de cualquier
punto de la superficie tenemos un conjunto de puntos bastante similar (es decir, topologicamente
equivalente) al correspondiente entorno en R2 .
En los ejemplos anteriores hemos mencionado variedades bidimensionales contenidas en un espa-
cio tridimensional, pero analogamente a como suceda con las curvas, una variedad bidimensional no
tiene porque estar contenida en R3 , sino que puede ocupar un espacio de dimensionalidad superior.
Una variedad bidimensional se define como cualquier conjunto de puntos que pueda parame-
trizarse (al menos localmente) por medio de dos parametros.
Con mucha frecuencia el conjunto de puntos que forma una variedad se define como el conjunto
de puntos de un cierto espacio de variables que cumple una determinada condicion, dada por una
ecuacion o sistema de ecuaciones. Por ejemplo, la s-esfera de radio unidad es la hipersuperficie
s-dimensional dada por el conjunto de puntos de Rs+1 que cumple
( 1 )2 ( )2
x + + xs+1 = 1.
El concepto de variedad es muy general: una variedad no tiene por que ser necesariamente
conexa, tampoco tiene por que ser cerrada o finita. Por ejemplo, el conjunto de puntos de R2
que cumple la ecuacion xy = 1 es una hiperbola, con dos ramas no conexas ( cada) una de ellas
con extension infinita; el conjunto de puntos de R2 que cumple la ecuacion y x2 (y + 1) = 0
esta formado por dos curvas, la parabola y = x2 y la recta y = 1.
4.1. VARIEDADES DIFERENCIABLES 85
R
Figura 4.3: Ejemplos de variedades bidimensionales contenidas en 3 . En la imagen central
se ha representado tambien el plano z = 1 y en la ultima el plano z = 0.
En el estudio de variedades diferenciables existen dos puntos de vista opuestos: o bien podemos
considerar la variedad de manera abstracta, sin hacer referencia a ningun espacio de dimensionalidad
superior donde pueda estar contenida, o bien podemos considerar que la variedad es un subconjunto
de un cierto espacio ambiente que la contiene.
Las propiedades que pueden estudiarse sin hacer referencia a ningun espacio ambiente depen-
den exclusivamente de la variedad y se denominan propiedades intrnsecas y su estudio geometra
intrnseca de la variedad. Por el contrario, las propiedades para cuyo estudio es necesario considerar
a la variedad como parte de un espacio ambiente se denominan propiedades extrnsecas, ya que no
solo dependen de la variedad sino tambien del espacio ambiente.
Desde el punto de vista extrnseco una variedad diferenciable n-dimensional puede definirse
como el conjunto de puntos de un cierto espacio vectorial de n + r dimensiones (p. ej. Rn+r ) que
86 CAPITULO 4. CAMPOS TENSORIALES
donde las r funciones fi anteriores son independientes entre s y cumplen ciertas propiedades adi-
cionales. Por ejemplo, dos condiciones f (x, y, z) = 0 y g(x, y, z) = 0 en R3 determinan una curva,
dada por la interseccion de las superficies definidas por cada una de estas condiciones.
Es evidente que el conjunto de puntos definido por un sistema como el anterior (Eq. (4.1)) no
siempre define una variedad. Por ejemplo, el conjunto de puntos de R2 que cumplen la condicion
xy = 0 esta dado por los ejes x e y, este conjunto no es una variedad 1-dimensional, ya que cualquier
entorno abierto que contenga el origen no es topologicamente equivalente a un entorno de la recta
o a ningun espacio vectorial.
Que condiciones debe cumplir el sistema Ec. (4.1) para definir una variedad?
{ }
Supongamos que el punto x0 = x10 , x20 , . . . , xn+r
0 cumple el sistema Ec. (4.1) y que las r
funciones fi son (1) continuas y (2) diferenciables en un entorno de x0 . Entonces, segun el
teorema de la funcion implcita el sistema Ec. (4.1) define una variedad n-dimensional, al menos
en un cierto entorno de x0 , si y solo si (3) el rango de la matriz jacobiana del sistema (J)
f1 f1 f1 f1
... ...
x1 xn xn+1 xn+r
J = ... ... ... ... ... ... (4.2)
fr fr fr fr
x1
... xn xn+1
... xn+r
donde hemos tomado las r variables que podemos despejar como las r ultimas. De esta forma en
un entorno de x0 los puntos { de Rn+r que } cumplen el sistema Ec. (4.1) pueden parametrizarse en
terminos de las coordenadas x1 , . . . , xn , y por tanto en dicho entorno constituyen una variedad
n-dimensional.
Si estas 3 condiciones se cumplen en un cierto entorno de todos los puntos x0 que verifican
el sistema Ec. (4.1), entonces esta coleccion de condiciones define una variedad diferenciable n-
dimensional contenida en Rn+r .
De hecho, aproximando en Ec. (4.1) cada fi por su desarrollo en serie de Taylor hasta or-
den 1 en torno a x0 , es muy sencillo demostrar que la condicion necesaria para poder despejar
4.1. VARIEDADES DIFERENCIABLES 87
{ n+1 } { }
x , . . . , xn+r como funcion de las restantes x1 , . . . , xn en un entorno del punto x0 es preci-
samente que la matriz
f1 f1
. . .
x n+1 x n+r
... ... ... (4.4)
fr
xn+1
. . . xfn+r
r
sea invertible.
El mismo razonamiento que acabamos de emplear puede repetirse suponiendo que el espacio
en el que esta definido el sistema Ec. (4.1) no es un espacio vectorial, sino una variedad n + r-
dimensional parametrizada (localmente) por unas coordenadas xi . En ese caso, cuando se cumplen
las condiciones (1), (2) y (3) el sistema Ec. (4.1) define una sub-variedad.
Codimension e hipersuperficies
Dada una variedad n-dimensional contenida en un espacio vectorial N -dimensional, se define
la co-dimension de la variedad como la diferencia N n. En el caso de una variedad definida por
un sistema de ecuaciones como el anterior (Eq. (4.1)) la co-dimension esta dada por el numero de
restricciones que define la variedad dentro del espacio ambiente.
De manera analoga al caso de una superficie contenida en R3 , que es una variedad de co-
dimension 1, se denomina hipersuperficie a cualquier variedad n-dimensional contenida en un espacio
de n + 1 dimensiones, es decir, cualquier variedad de codimension 1, y se denomina hiperplano a
cualquier hipersuperficie con curvatura nula.
dx dy dz
= =
vx vy vz
Mecanica clasica
Para visualizar de manera global el comportamiento de sistemas mecanicos suele emplearse
el plano de fases, definido como el conjunto de todas las trayectorias posibles en el espacio de
posiciones r y momentos lineales p = m dr/dt del sistema. En el caso de sistemas conservativos
las trayectorias en el plano de fases estan dadas por los puntos (r, p) que cumplen la ecuacion
de conservacion de la energa K + U = E (siendo K = p2 /(2m) la energa cinetica, U = U (r) la
88 CAPITULO 4. CAMPOS TENSORIALES
energa potencial y E la energa total del sistema), es decir, las curvas de nivel de la funcion energa
total. Haciendo que varen las condiciones iniciales (r(0) y p(0)) podemos ir calculando todas las
trayectorias posibles, y su representacion en el plano de fases proporciona mucha informacion sobre
los posibles comportamientos del sistema.
Un ejemplo interesante y muy sencillo es el oscilador armonico unidimensional. En ese caso el
potencial es V (x) = kx2 /2 y la ecuacion de conservacion de la energa (p2 /(2m) + V (x) = E) da
lugar a la familia de elipses con semiejes xmax y pmax
x2 p2
+ =1
x2max p2max
en el plano
de fases, donde la elongacion maxima es x max = 2E/k y el momento maximo es
pmax = 2mE.
Conceptualmente el mapa de fases es muy util, pero la visualizacion de las trayectorias puede
ser complicada en algunos casos, ya que la dimensionalidad de la variedad K + U = E depende
del sistema considerado, pudiendo llegar a ser muy elevada. Para el movimiento unidimensional
de una partcula puntual el plano de fases es bi-dimensional y la condicion de conservacion de la
energa define una variedad uni-dimensional; para una partcula puntual en 2 (respectivamente 3)
dimensiones el plano de fases tiene 4 (respectivamente 6) dimensiones y la variedad K + U = E
es una hipersuperficie de 3 (respectivamente 5) dimensiones. En general, si tenemos n grados de
libertad en lo que respecta a la posicion, la dimensionalidad del plano de fases sera 2n y la condicion
de conservacion de la energa define una variedad (2n 1)-dimensional (o de co-dimension 1), en
algunos casos esta dimensionalidad puede ser alta. Por ejemplo, un solido rgido en 3 dimensiones
tiene 6 grados de libertad en lo que respecta a su posicion (3 coordenadas para la posicion del centro
de masas y otras 3 para la orientacion del cuerpo en el espacio); otros ejemplos con dimensionalidad
elevada son un solido articulado con muchos grados de libertad, o, por supuesto, un sistema de
muchas partculas puntuales.
Otro caso interesante y facil de visualizar es el
pendulo simple bajo la accion de la gravedad (figura
4.4). El momento lineal en este caso es mL y la energa
potencial (mgh) queda como mgL (1 cos ), de modo
que la trayectoria en el plano de fases correspondiente L
a una energa total E esta dada por la curva
1 cos p2
+ 2 =1
1 cos max pmax
donde el momento maximo pmax vuelve a estar da-
do por 2mE y 1 cos max es igual a 2E/Es , sien-
do Es = 2mgL la energa mnima necesaria para que h
mg
el pendulo llegue a dar una vuelta completa. Para
energas por debajo de Es las curvas que obtenemos
en el plano de fases son cerradas, lo que significa que el
pendulo oscila siendo max el angulo maximo alcanza- Figura 4.4: El pendulo simple.
do. Por el contrario, para E > Es estas curvas ya no son cerradas, el pendulo no oscila sino que da
vueltas completas, de forma que no existe angulo maximo. En el lmite E/Es 1 las oscilaciones
tienen amplitud muy pequena, y la anterior variedad se aproxima a la familia de elipses
2 p2
2
+ =1
max p2max
4.1. VARIEDADES DIFERENCIABLES 89
(tal y como puede comprobarse por medio del desarrollo en serie de Taylor de cos ) que corresponde
a un oscilador armonico de constante recuperadora k = mg/L. En la figura 4.5 se ha representado
el plano de fases de un pendulo simple, mostrando el tipo de comportamiento que observaremos en
funcion del parametro adimensional E/Es .
Aparte de la dimensionalidad, otra dificultad que existe en mecanica clasica para visualizar las
hipersuperficies de nivel E(r, p) = E en el plano de fases es la propia estructura de estas varieda-
des. En particular, si la dimensionalidad del plano de fases es superior a 2 existe la posibilidad de
encontrar comportamiento caotico (teorema de Poincare-Bendixson), en cuyo caso la estructura de
las hipersuperficies correspondientes a un determinado nivel de energa sera extraordinariamente
complicada. Como ya hemos mencionado antes una condicion como K + U = E no siempre ge-
nerara una variedad diferenciable, sino que en algunos casos puede dar lugar a estructuras mas
complicadas, no equivalentes a ningun espacio vectorial ni siquiera localmente. En el caso de un sis-
tema con dinamica caotica las hipersuperficies K + U = E se retuercen sobre s mismas de manera
extraordinariamente complicada, generando estructuras que llenan densamente el espacio de fases,
con una topologa diferente a la de un espacio vectorial, incluso localmente. En algunos casos estas
estructuras son auto-similares bajo cambios de escala, lo que las convierte en estructuras fractales.
Termodinamica
Las variables de presion p, temperatura absoluta T y densidad de una sustancia pura en
equilibrio termodinamico estan relacionadas entre s por una ecuacion de estado del tipo f (p, T, ) =
0, donde la forma de la funcion f depende de la naturaleza del sistema considerado. Por ejemplo,
para un gas ideal con masa molar m tenemos f (p, T, ) = pm RT . La condicion de equilibrio
termodinamico da lugar por tanto a una superficie en el espacio de variables (p, T, ). Por ejemplo,
la ecuacion de estado de van der Waals para una sustancia pura es
p 8T /Tc ( v )2
c
= 3
pc 3v/vc 1 v
90 CAPITULO 4. CAMPOS TENSORIALES
Figura 4.6: Isotermas de un fluido de van der Waals. Las lneas rojas corresponden al fluido
supercrtico, las azules a la fase lquida y las verdes a la fase gas.
Relatividad
vaciones de que disponemos en la actualidad parecen indicar que el espacio-tiempo es una varie-
dad diferenciable pseudo-Riemanniana de 4 dimensiones. El anterior prefijo pseudo- refleja que
segun la teora de la relatividad la metrica del espacio-tiempo no cumple todas las propiedades
que normalmente se exigen a una funcion distancia. La gran diferencia esta en que la metrica
del espacio-tiempo relativista no es definida positiva, sino que existen ciertos vectores (llamados
de genero luz) que a pesar de no ser nulos tienen norma nula; por otra parte existen tambien
vectores llamados de genero tiempo con norma negativa y vectores llamados de genero espacio
con norma positiva, de tal forma que la distancia espacio-temporal entre dos sucesos separados por
un vector de genero (respectivamente) tiempo, luz o espacio es (respectivamente) negativa, nula o
positiva (todo esto empleando la convencion tipo espacio, con signatura metrica +++, los signos
se invierten si empleamos la convencion tipo tiempo).
Como consecuencia la geometra del espacio-tiempo relativista es distinta de la habitual geo-
metra de Rn , incluso en el caso del espacio-tiempo plano de la relatividad especial (el espacio
de Minkowski). En ultima instancia esto hace que en el lmite no relativista (a velocidades bajas
comparadas con la de la luz y lejos de singularidades espacio-temporales, como agujeros negros) la
coordenada temporal aparezca como una variable cualitativamente distinta de las espaciales, que
por su parte forman un espacio vectorial que en la practica es indistinguible del espacio Eucldeo
de 3 dimensiones.
En un entorno alrededor de cada punto de una variedad n-dimensional sabemos que esta es
similar (topologicamente equivalente) al correspondiente entorno de un espacio vectorial de n di-
mensiones (en la mayora de los casos Rn ). Por tanto, en un entorno de cualquier punto podemos
definir una coleccion de n funciones reales continuas con inversa continua (homeomorfismos) tales
que a cada punto de dicho entorno le hagan corresponder un punto del espacio vectorial Rn , cuyas
coordenadas en Rn (o cualquier funcion continua y diferenciable con inversa continua y diferenciable
de las mismas) pueden emplearse como coordenadas del punto de la variedad.
En una variedad diferenciable n-dimensional esta coleccion de n homeomorfismos define por
tanto unas coordenadas generalizadas que parametrizan una determinada region finita de la varie-
92 CAPITULO 4. CAMPOS TENSORIALES
dad. Un conjunto de funciones como el mencionado se denomina mapa, por analoga con los mapas
geograficos, que hacen corresponder cada punto de una zona de la superficie terrestre con un punto
de una representacion bidimensional plana. En general para describir una variedad no bastara con
un unico mapa, valido a lo largo de toda la variedad, sino que sera necesario emplear una coleccion
de cierto numero de mapas, cada uno de ellos valido solo en una determinada region, de tal forma
que el conjunto completo de todos estos mapas llegue a cubrir la totalidad de la variedad. Dicho
conjunto completo de mapas se denomina logicamente atlas.
La condicion que distingue a una variedad diferenciable es que todos los mapas que relacionan
cada region de la variedad con la correspondiente region de Rn deben ser diferenciables (ademas
de continuos con inversa continua). De esta forma, al mover un punto a lo largo de la variedad de
manera continua y diferenciable, sus coordenadas en el mapa que representa esta variedad en Rn
varan de forma continua y diferenciable, lo cual nos permite calcular derivadas e integrales a lo
largo de la variedad en terminos de derivadas e integrales respecto de las coordenadas generalizadas
que estemos empleando.
Los mapas empleados para definir las coordenadas generalizadas en una variedad diferenciable
son por tanto homeomorfismos diferenciables, este tipo de funciones se denominan difeomorfismos.
Para garantizar que sobre la variedad podemos realizar derivadas espaciales de orden arbitra-
riamente alto, los difeomorfismos que mapean la variedad en Rn deben tener infinitas derivadas
continuas, es decir, deben ser funciones de clase C . En este curso denominaremos funciones sua-
ves a las funciones de clase C . Por otra parte, si sobre una determinada region en una variedad
diferenciable es posible definir dos parametrizaciones diferentes, la condicion de diferenciabilidad
impone que estas deben ser compatibles entre s, es decir, debe existir una funcion invertible de clase
C que transforme un mapa en el otro, al menos en la region donde ambos son simultaneamente
validos, dicha funcion se denomina cambio de coordenadas.
Esto ultimo es especialmente importante en aquellos casos en los que resulta imposible describir
la variedad completa por medio de una sola parametrizacion. En esos casos sera necesario emplear
distintas parametrizaciones validas en distintas regiones de la variedad, y la condicion de diferen-
ciabilidad de la variedad impone que dichos mapas deben ser compatibles en la interseccion entre
los dominios de definicion correspondientes.
Las condiciones anteriores pueden resumirse de la siguiente forma. Dada la variedad diferen-
ciable n-dimensional V, localmente homeomorfa a Rn :
Coordenadas generalizadas:
4.1. VARIEDADES DIFERENCIABLES 93
La variedad esta parametrizada por un atlas, dado por un cierto numero de homeomor-
fismos definidos sobre determinadas regiones i de la variedad en Rn
fi : i Rn (4.5)
de forma que cada uno de estos mapas fi define un sistema de coordenadas generalizadas
valido en una cierta region i V
fi (v) = {xk (v)}nk=1 v i (4.6)
donde la superposicion de los dominios de definicion de todos estos mapas recubre la
variedad en su conjunto
V= i . (4.7)
i
Condicion de diferenciabilidad de las coordenadas generalizadas:
Si la variedad es diferenciable todos estos mapas deben ser homeomorfismos diferencia-
bles, es decir, difeomorfismos.
En general en este curso supondremos que las funciones que definen las coordenadas
generalizadas sobre una variedad diferenciable son funciones invertibles de clase C .
Condicion de compatibilidad entre coordenadas generalizadas:
Dados los mapas f y g validos en las regiones f y g , que definen respectivamente las
coordenadas generalizadas
{xk (v)}nk=1 = f (v) y {yk (v)}nk=1 = g(v), (4.8)
si la interseccion f g no es nula entonces la condicion de diferenciabilidad impone que
existen dos funciones invertibles de clase C ( y 1 ) que transforman las coordenadas
generalizadas {yk (v)}nk=1 en las {xk (v)}nk=1 y viceversa
{xk (v)}nk=1 = ({yk (v)}nk=1 ) , {yk (v)}nk=1 = 1 ({xk (v)}nk=1 ) . (4.9)
Es muy facil ver que y su inversa estan dadas respectivamente por
( ) [ ]
= f g 1 , ({yk (v)}nk=1 ) = f g 1 ({yk (v)}nk=1 ) (4.10)
( ) [ ]
1 = g f 1 , 1 ({xk (v)}nk=1 ) = g f 1 ({xk (v)}nk=1 ) . (4.11)
Las variedades diferenciables son los dominios mas generales sobre los que es posible definir
operaciones de calculo. Cuando se cumplen todas las condiciones anteriores podemos emplear las
coordenadas generalizadas para calcular derivadas o integrales sobre la variedad por medio de
las correspondientes derivadas o integrales respecto de las coordenadas generalizadas. Al hacer
esto debemos tener en cuenta que si la variedad considerada tiene cierta curvatura, su metrica
no coincidira con la del espacio Eucldeo Rn . Esto tiene importantes consecuencias a la hora de
medir distancias, angulos o areas sobre una variedad y tambien a la hora de calcular derivadas
direccionales. En general el calculo de derivadas direccionales a lo largo de variedades diferenciables
n-dimensionales y el analisis de su metrica (incluyendo medidas de curvaturas, distancias, angulos,
areas, volumenes, etc.) son los objetos de estudio de la geometra diferencial. En el proximo captulo
veremos como se calculan derivadas direccionales en variedades diferenciables y en la segunda parte
del curso veremos como se calculan curvaturas, distancias, angulos y areas en el caso de variedades
de una y dos dimensiones, es decir, curvas y superficies.
94 CAPITULO 4. CAMPOS TENSORIALES
g
y2
y1
x2
x1
f
Figura 4.8: Compatibilidad entre coordenadas generalizadas de una variedad diferenciable.
Variedades Riemannianas
El concepto de variedad generaliza el concepto de espacio vectorial a conjuntos de puntos
con estructuras mas complicadas. Con mucha frecuencia consideraremos variedades diferenciables
localmente homeomorfas al espacio Rn con metrica no Eucldea en el plano tangente. En general se
define una variedad Riemanniana como cualquier variedad diferenciable n dimensional con metrica
de Riemann en el espacio tangente, de tal forma que la metrica esta descrita por un tensor metrico
gij que vara de forma continua y diferenciable a lo largo de la variedad.
Parametrizacion de curvas
En general una curva en Rn puede definirse mediante las n ecuaciones parametricas que definen
las coordenadas de un punto sobre la curva en funcion de un parametro ,
x1 = x1 ()
x2 = x2 ()
... ... ...
xn = xn () (4.15)
de tal forma que cuando recorre un cierto intervalo de la recta real (p. ej. [0, 1]) el punto
x() recorre la curva completa, desde el punto inicial (x( = 0)) hasta el final (x( = 1)). De esta
manera el parametro es la coordenada generalizada que define la posicion de cualquier punto
sobre la curva.
En algunos casos se pueden tomar parametros que tengan un significado geometrico evidente.
Por ejemplo, las relaciones
Parametrizacion de superficies
Las superficies se caracterizan por tener 2 grados de libertad, lo que implica que para recorrer
una superficie debemos emplear 2 coordenadas generalizadas. Las ecuaciones parametricas de una
superficie contenida en Rn tendran por tanto la forma general siguiente
x1 = x1 (, )
x2 = x2 (, )
... ... ...
xn = xn (, ) (4.17)
de manera que cuando los parametros y recorren sus correspondientes dominios de definicion el
punto x(, ) recorre la superficie. Los parametros y definen de esta forma unas coordenadas
generalizadas que nos permiten describir la superficie.
Por ejemplo, la definicion de las coordenadas esfericas en R3 con r = const. proporciona una
parametrizacion de la superficie esferica de radio r centrada en el origen en terminos de las coor-
denadas generalizadas y (aunque este mapa no es valido cerca de los polos = 0 y = ).
Otro ejemplo, en la grafica de una funcion de dos variables z = f (x, y) las propias variables x e y
proporcionan las coordenadas generalizadas necesarias para la parametrizacion de la superficie.
96 CAPITULO 4. CAMPOS TENSORIALES
z
v(t)
r(t)
El vector dado por la diferencia entre los valores de x sobre esta curva correspondientes a dos
valores de infinitamente proximos
vd = x( + d) x() (4.18)
U (x) dxi
v() = (4.20)
xi d
Considerar diferentes curvas r() implica, claramente, considerar diferentes valores para dxi /d,
pero la expresion generica anterior es valida para cualquier curva, es decir, el vector tangente v a
cualquier curva contenida en V se puede expresar como combinacion lineal de la base U (x)/xi .
Como consecuencia, dada la parametrizacion U (valida al menos en un entorno del punto conside-
rado), el espacio tangente a V en r esta dado por la envolvente lineal de la base
U (x)
ti = , i = 1, . . . , n (4.21)
xi
Como puede verse, esta base esta dada por los vectores tangentes a las lneas coordenadas U (xi ),
dadas por la interseccion de las hipersuperficies definidas por U (xj ) = const. j = i.
Es muy sencillo verificar que esta base define, efectivamente, un espacio vectorial. Para ello basta
comprobar que cualquier combinacion lineal de la base pertenece tambien al espacio tangente, es
decir, que existe una curva (continua, diferenciable y contenida en V) cuyo vector velocidad coincide
con dicha combinacion lineal. Por otra parte tambien existe el elemento nulo, el elemento opuesto,
y, en resumen, se puede comprobar facilmente que se verifican todas las propiedades mencionadas
en el primer captulo.
Cambios de coordenadas
Aunque es trivial verificar que la envolvente lineal de la base Ec. (4.21) cumple todas las
propiedades necesarias para ser un espacio vectorial, todava no es del todo evidente que un objeto
definido como v = v i ti sea, realmente, un vector. Esto no es del todo evidente ya que los ti se han
definido a partir de una parametrizacion concreta U que es totalmente arbitraria. Para convencernos
de que v i ti es, efectivamente, un vector, debemos verificar que este objeto es invariante sea cual
sea el sistema de coordenadas generalizadas empleado para describir la variedad.
Consideremos entonces una parametrizacion arbitraria V , tal que a cada r V le asigna las
n coordenadas generalizadas y i (es decir, r = U (x) = V (y)). De manera analoga a como hemos
definido la base Ec. (4.21), los vectores tangentes a las lneas coordenadas de este nuevo sistema
definen la base nueva
V (y)
ti = , i = 1, . . . , n (4.22)
y i
Por definicion, este cambio de coordenadas es invertible, es decir, existen n funciones suaves que
relacionan las coordenadas nuevas con las viejas y viceversa
xi = xi (y 1 , . . . , y n ), y i = y i (x1 , . . . , xn ), i = 1, . . . , n (4.23)
Vemos por tanto que los vectores base Ec. (4.21), dados por las tangentes a las lneas coordenadas,
se comportan como objetos 1-covariante bajo el cambio de base inducido en el espacio tangente
como consecuencia de realizar un cambio de coordenadas en la variedad.
Para terminar de convencernos de que los elementos del espacio tangente son realmente vectores,
debemos comprobar que, dada la curva parametrica arbitraria r() V, la velocidad de esta
curva es realmente un vector, es decir, un objeto independiente de las coordenadas generalizadas
empleadas para describir la variedad. Veamos que efectivamente es as. En la parametrizacion U el
vector velocidad de esta curva (v) es
dr() dxi
v= = ti = v i ti (4.26)
d d
y por tanto tiene componentes v i = dxi /d. En la parametrizacion V el vector velocidad es
dr() dy i
v= = ti = v i ti (4.27)
d d
Identificando ambos resultados vemos que las coordenadas de v respecto de la base vieja (v i ) y
respecto de la base nueva (v i ) estan relacionados por
v i = Dji v j (4.28)
donde la matriz D es la matriz jacobiana de la transformacion inversa
1
y y 1
. . . x
y i x 1 n
i 1
Dj = , D = C = ... ... ... (4.29)
xj
y n y n
x1
. . . x n
Este mismo resultado (Ec. (4.28)) puede obtenerse directamente aplicando la regla de la cadena
dy i y i xj
v i = = = Dji v j (4.30)
d xj d
Por tanto vemos que las componentes dxi /d de la velocidad de cualquier curva parametrica se
comportan bajo un cambio de coordenadas como un objeto 1-contravariante, tal y como corresponde
a las componentes de un vector.
Con esto queda comprobado que el espacio tangente a una variedad diferenciable tiene estructura
de espacio vectorial. Como corolario tambien resulta evidente que la dimensionalidad del espacio
tangente coincide con el numero de coordenadas generalizadas necesarias para describir la variedad,
es decir, con la dimensionalidad de la variedad.
100 CAPITULO 4. CAMPOS TENSORIALES
u v = gij ui v j (4.31)
donde el tensor metrico gij se define como la tabla de productos escalares de los vectores de la base
gij = ti tj , i, j = 1, . . . , n (4.32)
El tensor metrico nos permite medir distancias a lo largo de la variedad. Por ejemplo, dada la curva
parametrica r() la longitud al cuadrado (dr)2 recorrida en el intervalo de tiempo d es
A partir de las leyes de transformacion de los vectores ti es inmediato verificar que las com-
ponentes del tensor metrico se transforman bajo un cambio de base como un objeto 2-covariante
r
ti = , i = 1, . . . , n (4.36)
xi
se define como la base natural del fibrado tangente a V.
Para cualquier vector v del espacio tangente, las componentes de v respecto de la base natu-
ral correspondiente a cualquier sistema de coordenadas generalizadas se denominan componentes
holonomas. La base dual a la base Ec. (4.36), dada por ti = g ij tj , es la base natural del fibrado
cotangente, y en general, se denominan componentes holonomas a las componentes de cualquier
tensor afn relativas a la base definida como cualquier potencia tensorial de la base natural y su
dual.
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 101
{ }n
Como las coordenadas generalizadas xi i=1 varan de forma suave (es decir, C ) a medida que
recorremos la variedad, tambien lo hacen sus vectores tangentes, de modo que la base natural vara
de forma suave a medida que recorremos el fibrado tangente. Desde el punto de vista tensorial la
base natural tiene muchas ventajas, paro hay ocasiones en que es preferible emplear otras bases
distintas, como veremos mas adelante.
Por el contrario, se denominan componentes no holonomas a las componentes de los vectores
del espacio tangente respecto de cualquier base distinta de la base natural. Esta definicion se hace
extensiva a las componentes de cualquier campo tensorial definido sobre la variedad relativas a
cualquier base distinta de la correspondiente potencia tensorial de la base natural y su dual. Un
ejemplo de componentes no holonomas de gran interes en fsica son las llamadas componentes
fsicas, dadas por las componentes respecto a la base natural normalizada, tal y como veremos
posteriormente.
invertibles
( )
x1 = x1 y 1 , . . . , y n
... ... ...
( 1 )
x = x y , . . . , yn
n n
(4.38)
de tal manera que la posicion de cualquier punto del espacio vectorial queda unvocamente definida
tanto por xi como por y i . La condicion que garantiza que podamos invertir el cambio de coordenadas
es que el jacobiano de la transformacion
x1 x1
. . . yn
xi y1
i
Jj = , J = ... ... ... (4.39)
y j
xn n
y 1
. . . x
y n
Normalmente las coordenadas y i seran funciones complicadas (no lineales) de las xi y el jaco-
biano no sera constante, sino que sera una funcion del punto. Por tanto el cambio de coordenadas
definido por Ec. (4.37) y Ec. (4.38) es una operacion mas complicada que un simple cambio de
base en el espacio. En particular, las coordenadas generalizadas y i ni siquiera tendran (en general)
las mismas dimensiones que las xi . Por ejemplo, al pasar a coordenadas cilndricas o esfericas en
R3 la coordenada radial tiene las mismas dimensiones que las coordenadas cartesianas de partida,
pero las coordenadas angulares no, ya que son adimensionales. Mas adelante volveremos sobre esta
cuestion, que motiva la definicion de las componentes fsicas.
x
ti = = Jij ej (4.41)
y i
donde la matriz jacobiana esta dada por Ec. (4.39), tal y como puede comprobarse aplicando la
regla de la cadena para calcular x/y i en terminos de x/xj .
El tensor metrico en terminos de la base nueva esta dado por
Para verificar que gij define una metrica de Riemann es necesario comprobar que es simetrico,
invertible, y que vara de forma suave a medida que recorremos el fibrado tangente. Lo cual es
inmediato suponiendo que Gij cumple todas las propiedades necesarias para definir una metrica
Riemanniana y que J es invertible y suave.
Caso de Rn Eucldeo
En el caso mas habitual la metrica de Rn sera Eucldea Gij = ij (al menos en alguna base).
En ese caso el tensor metrico del espacio tangente en la base natural definida por el sistema de
coordenadas y j es
n
gij = Jik Jjk (4.43)
k=1
Coordenadas ortogonales
En general se denominan sistemas de coordenadas ortogonales a aquellos en que las lneas
coordenadas son mutuamente perpendiculares, de forma que el tensor metrico en el espacio tangente
es diagonal: {
0 si i = j
gij = ti tj = (4.44)
h2i si i = j
donde los factores de escala hi estan dados por la norma de los correspondientes vectores tangentes
a las lneas coordenadas
hi = (ti ti )1/2 = ti (4.45)
que en general no seran unitarios (hi = 1). En el caso de un espacio Eucldeo descrito en terminos
de un sistema de coordenadas ortogonales los factores de escala estan dados por
n ( )2
2 xk
(hi ) = (4.46)
y i
k=1
Segun hemos visto previamente, en terminos de la base natural correspondiente a las coorde-
nadas y i , este vector se expresa sencillamente como
dy i
v= ti (4.48)
dt
Desde el punto de vista tensorial el vector Ec. (4.48) esta perfectamente bien definido, pero
desde el punto de vista fsico puede ser poco conveniente. Supongamos que las coordenadas xi
tienen dimensiones de longitud, de tal forma que las componentes de v en la base cartesiana tienen
dimensiones de longitud/tiempo. Parece razonable pensar que las componentes de un vector velo-
cidad siempre deben tener dimensiones de velocidad, sin embargo, esto no tiene porque cumplirse
con las componentes dy i /dt. De hecho es inmediato comprobar que dy i /dt solo tendra dimensiones
de velocidad si la correspondiente coordenada generalizada y i tiene dimensiones de longitud, lo
cual no tiene por que cumplirse, y de hecho no se cumple en numerosos sistemas de coordenadas
empleados habitualmente (como las variables angulares de las coordenadas cilndricas y esfericas).
El problema esta en la definicion de la base natural. En principio en fsica parece preferible
que los vectores de la base sean adimensionales, de forma que las dimensiones del tensor en consi-
deracion recaigan sobre sus componentes, tal y como sucede cuando se emplea la base cartesiana.
104 CAPITULO 4. CAMPOS TENSORIALES
r
y i
1
ti =
r
= hi ti , i = 1, . . . , n (4.49)
y i
(sin suma en i). Por construccion esta claro que cada uno de estos vectores es unitario, y por tanto
tambien adimensional. Las componentes de vectores y tensores respecto de esta base se denominan
componentes fsicas, y se caracterizan por tener las mismas dimensiones que el objeto tensorial
que representan. Las leyes de transformacion de tensores en componentes fsicas son algo mas
complicadas que en componentes holonomas, ya que incluyen contracciones con el tensor metrico
y con su inversa. Por este motivo es usual usar las coordenadas respecto de la base natural para
todo lo que son transformaciones de coordenadas y emplear las componentes fsicas, calculadas en
funcion de las anteriores, solo cuando ya no se van a realizar mas cambios de coordenadas.
Las componentes fsicas son las que se usan en la practica en todos los casos en que la metrica en
el espacio tangente sea Eucldea. En particular, si la metrica es Eucldea y se emplean coordenadas
ortogonales, la base natural normalizada tiene la gran ventaja de ser una base ortonormal (cosa
que en general no sucede con la base natural), lo cual simplifica enormemente todas las expresiones.
Esto hace que las componentes fsicas sean las empleadas en las aplicaciones del calculo tensorial
en ingeniera. De hecho, las componentes fsicas son las que se emplean cuando se suministran
expresiones para el calculo de divergencias, gradientes, etc. en sistemas de coordenadas curvilneas
ortogonales, como cilndricas o esfericas.
1 xi
tj = ei , sin suma en j
hj y j
y i
ej = hi ti , con suma en i (4.50)
xj
Como puede verse la matriz del cambio de base en este caso esta dada por [J][h1 ], donde [J] es la
matriz jacobiana y [h1 ] es una matriz diagonal cuyos elementos son los los inversos de los factores
de escala.
Consecuentemente las componentes fsicas de un vector del espacio tangente estan dadas por
y j y j i
u = ui ei = ui hj tj = uj tj ; uj = hj u, sin suma en j (4.51)
xi xi
tal y como corresponde a un comportamiento 1-contravariante.
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 105
i i
La base dual a {ti }ni=1 esta dada por los vectores {t }ni=1 que cumplen (t , tj ) = ji . Puede
comprobarse facilmente que esta base esta dada por
y i j
i
t = hi
e , sin suma en i (4.52)
xj
Consecuentemente las componentes fsicas de un vector del espacio cotangente estan dadas por
1 xi j j 1 xi
u = ui ei = ui t = u j t ; u j = ui , sin suma en j (4.53)
hj y j hj y j
tal y como corresponde a una una ley tensorial 1-covariante.
y
x
Figura 4.10: Coordenadas cilndricas.
y1 = r = x2 + y 2 x1 = x = r cos
y
y2 = = arctan x
x2 = y = r sen
y3 = z x3 = z
Matriz jacobiana
cos() (r sin()) 0
Ji j = sin() r cos() 0
0 0 1
Vectores tangentes
( )
sin()
cos() (r sin()) 0 cos() 0
r
1 2 3
t1 = sin() , t2 = r cos() , t3 = 0 , t = sin() , t = cos()
, t = 0
r
0 0 1 0 0 1
cos() sin() 0 cos() sin() 0
1 2 3
t1 = sin() , t2 = cos() , t3 = 0 , t = sin() , t = cos() , t = 0
0 0 1 0 0 1
Tensor metrico
1 0 0 1 0 0
gij = 0 r2 0 , g ij = 0 r2 0
0 0 1 0 0 1
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 107
ur
u
r
r u
y
x
Matriz jacobiana
cos() sin() r cos() cos() (r sin() sin())
Ji j = sin() sin() r cos() sin() r cos() sin()
cos() (r sin()) 0
Vectores tangentes
cos() sin() r cos() cos() (r sin() sin())
t1 = sin() sin() , t2 = r cos() sin() , t3 = r cos() sin()
cos() (r sin()) 0
( )
cos() cos() csc() sin()
cos() sin()
r r
1 2 3
t = sin() sin() , t = cos()rsin() , t = cos() csc()
( ) r
sin()
cos() r 0
Tensor metrico
1 0 0 1 0 0
gij = 0 r2 0 , g ij = 0 r2 0
2
csc()
0 0 r2 sin()2 0 0 r2
108 CAPITULO 4. CAMPOS TENSORIALES
4.4. Problemas
P.4.1. Dado el sistema Ec. (4.1), demostrar
{ n+1 } que la condicion necesaria
{ 1 paran }poder despejar las
coordenadas x ,...,x n+r como funcion de las restantes x , . . . , x en un entorno del
punto x0 es que la matriz Ec. (4.4) sea invertible en un entorno de dicho punto.
P.4.2. Demostrar que un vector v cualquiera, con origen en un punto r V, pertenece al espacio
tangente a la variedad V en el punto r si y solo si v es el vector velocidad de alguna curva
(s) contenida en V que pase por r.
P.4.3. Demostrar que el tensor metrico gij definido por Ec. (4.42) define una metrica de Riemann
en el fibrado tangente al espacio vectorial Rn con metrica de Riemann dada por Gij .
P.4.4. Demostrar que la metrica gij definida por Ec. (4.42) es esencialmente identica a Gij .
P.4.5. Dado el vector v = v i ti del espacio tangente a Rn , calcular las componentes co-variantes
de este vector suponiendo que la base natural ti corresponde a un sistema de coordenadas
curvilneas ortogonales.
P.4.6. Calcular las componentes del tensor 2-covariante asociado al tensor 2-contravariante T ij res-
pecto de la base natural correspondiente a un sistema de coordenadas ortogonales.
P.4.7. Verificar las relaciones Ec. (4.51) y Ec. (4.53) relativas a componentes fsicas de vectores.
P.4.8. Verificar las relaciones Ec. (4.55) y Ec. (4.57) relativas a las componentes fsicas del tensor
metrico.
P.4.9. Verificar que el tensor metrico de un espacio Eucldeo en componentes fsicas es la identidad.
P.4.10. Verificar las relaciones referentes al espacio Eucldeo R3 en coordenadas cilndricas y esfericas
mencionadas al final del captulo.
Como el punto x0 pertenece a la variedad debe satisfacer las ecuaciones { Ec. (4.1), de modo }
que fi (x0 ) = 0, i = 1, . . . , r. Ahora podemos despejar los terminos con xn+1 , . . . , xn+r :
( )
f1 (x) f 1 (x)
f 1 (x)
f 1 (x)
xn+1 + + xn+r = x1 + + xn
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0
( )
f2 (x) f 2 (x)
f 2 (x)
f 2 (x)
xn+1 + + xn+r = x1 + + xn
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0
... ... ... ... ...
( )
fr (x) fr (x) fr (x) fr (x)
xn+1
+ + x n+r
= x + +
1
x n
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0
y obtenemos un sistema lineal de ecuaciones que puede expresarse en forma matricial del
siguiente modo:
Ay = y 0
con el vector columna y para la incognitas, e y 0 para los terminos independientes:
n f1 (x)
xn+1 i=1 x1 x 1
x=x0
y = ... , y0 = ... ,
n fr (x)
x n+r i=1 x1 x 1
x= x0
y donde la matriz A de los coeficientes es, precisamente, la matriz Ec. (4.4) evaluada en el
punto en cuestion. Este sistema lineal tiene solucion cuando la matriz A es invertible:
y = A1 y 0 ,
{ n+1 }
y esa solucion corresponde
{ 1 al conjunto} x , . . . , xn+r de coordenadas expresadas como
funcion de las restantes x , . . . , xn , es decir:
( )
xn+1 = g1 x1 , . . . , xn
( )
xn+2 = g2 x1 , . . . , xn
... ... ...
n+r
( 1 )
x = gr x , . . . , xn
P.4.2. Para verificar que se cumple la doble implicacion indicada consideramos primero un vector v
perteneciente al espacio tangente en el punto r. Como v pertenece al espacio tangente pode-
mos escribirlo en terminos de sus componentes contravariantes v = v i ti . Consideremos ahora
la curva parametrica (s) dada por los puntos U (xi + v i s) siendo U el difeomorfismo existente
entre la variadad considerada y las coordenadas generalizadas empleadas para describirla, xi
las coordenadas generalizadas del punto r, s un parametro cualquiera y v i las componentes
contravariantes del vector v de partida. Es evidente que para s = 0 esta curva pasa por el
punto con coordenadas generalizadas xi , es decir, por r. Por otra parte, derivando respecto
del parametro s y teniendo en cuenta las relaciones Ec. (4.20 & 4.21) vemos que el vector
110 CAPITULO 4. CAMPOS TENSORIALES
velocidad de esta curva en s = 0 es v, con esto hemos visto que dado un vector del espacio
tangente hemos podido encontrar una curva parametrica tal que su velocidad coincide con el
vector dado.
Para verificar la implicacion inversa basta con recordar las relaciones Ec. (4.20 & 4.21), las
cuales implican que el vector velocidad de cualquier curva parametrica en un punto dado es
expresable como combinacion lineal de la base del espacio tangente en el punto considerado,
y por tanto pertenece a dicho espacio.
4.5. Bibliografa
Para escribir este captulo se ha consultado [1], [2], [5], [7] y [11].
Captulo 5
En este captulo veremos los conceptos de transporte paralelo y derivada covariante. Esto nos
permitira generalizar las operaciones basadas en derivacion direccional habituales en calculo al caso
de campos tensoriales definidos sobre variedades diferenciables.
podemos comparar el valor del campo en un punto A con el valor en otro punto B?
La relevancia de esta cuestion es obvia. Por ejemplo, el campo al que nos referimos podra
representar un campo de fuerzas, o de velocidades, de modo que nos preguntamos si la fuerza a la
que estan sometidos dos puntos distintos sobre la variedad es la misma, o si las velocidades a las
que se desplazan dos partculas puntuales sobre una variedad son iguales o no, y en caso de no serlo
nos preguntamos en cuanto difieren, es decir, cual es el vector diferencia. Tambien es evidente que
esta misma cuestion que estamos analizando para el caso de un campo vectorial se da de manera
analoga para un campo tensorial de cualquier rango.
A primera vista la pregunta anterior puede parecer trivial, pero no lo es. La dificultad esta en
que el valor del campo en el punto A es un vector del espacio tangente a la variedad en el punto A,
mientras que el correspondiente valor en el punto B pertenece al espacio tangente en B, es decir,
los dos vectores que queremos comparar pertenecen a espacios vectoriales distintos:
Esta claro que la pregunta de si dos vectores son o no iguales solo esta bien planteada cuando
ambos vectores pertenecen al mismo espacio vectorial, con lo que podra parecer que la pregunta
que hacamos mas arriba no tiene respuesta. Sin embargo, si la variedad en consideracion es el
espacio Eucldeo Rn descrito en terminos de la base cartesiana la operacion de comparar un v(A)
con un v(B) es trivial: basta con trasladar el vector v(A) sin modificarlo desde A hasta B, hecho
esto podemos compararlos (en particular calcular su diferencia) sin ninguna dificultad.
111
112 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
La respuesta a esta pregunta esta condicionada por la presencia de curvatura en la variedad. Para
entender esta cuestion es necesario estudiar con algo mas de profundidad lo que se esta haciendo
cuando trasladamos el origen de un vector a lo largo de una variedad. Los espacios tangentes a
una variedad en dos puntos distintos son espacios vectoriales distintos, pero estan conectados por el
hecho de ser ambos tangentes a la misma variedad diferenciable. Dada una variedad diferenciable
y un sistema de coordenadas generalizadas (y i ), el espacio tangente en un punto r puede definirse
como la envolvente lineal de los vectores tangentes a las lneas coordenadas en ese punto (es decir,
la envolvente lineal de la base natural en ese punto). Si ahora consideramos un desplazamiento
infinitesimal en torno a r tenemos que la base natural ti habra variado de forma infinitesimal para
convertirse en ti + dti , si el desplazamiento es infinitesimal esta variacion puede describirse en
terminos de la base natural en r por medio de
( )
ti j k ti
dti = j dy = t , j tk dy j (5.1)
y y
donde las derivadas se evaluan en el punto r de partida. Como consecuencia de esto los espacios
tangentes en r y r + dr no son independientes, sino que estan conectados por ser ambos tangentes
a la misma variedad diferenciable. Esta conexion es lo que permite trasladar vectores a lo largo
del fibrado tangente. En el caso de Rn Eucldeo en terminos de la base cartesiana la operacion
de trasladar vectores es trivial debido a que el tensor metrico y la base del espacio tangente son
constantes a lo largo de toda la variedad, de modo que para trasladar vectores sin modificarlos
basta con desplazar su origen sin modificar los valores de sus componentes.
La operacion de desplazar un vector (o un campo tensorial de cualquier orden) a lo largo de
una variedad, de manera paralela a s mismo y a la variedad, se denomina transporte paralelo. Esta
operacion implica que el vector que trasladamos se desplaza a lo largo de la variedad segun una
determinada curva parametrica:
Es evidente que el transporte paralelo de escalares es trivial. Dado un campo escalar f definido
sobre una variedad diferenciable, los valores de este campo en dos puntos (f (A) y f (B))
pueden compararse directamente, es decir, el transporte paralelo de la magnitud del campo
en A (f (A)) a cualquier otro punto de la variedad esta dado por f (A).
5.1. TRANSPORTE PARALELO 113
En cualquier otro caso el transporte paralelo es una operacion no trivial en la que entra en juego el
rango tensorial de la magnitud transportada y la curvatura de la variedad. La presencia de curvatura
en una variedad tiene consecuencias importantes en el transporte paralelo, ya que al realizarse
este de manera paralela a la variedad, si la variedad tiene curvatura se introduce inevitablemente
una cierta rotacion en el tensor, dependiente del camino considerado, a medida que se realiza el
transporte. Por tanto la presencia de curvatura hace que el transporte paralelo dependa del camino.
Esto se pone de manifiesto de manera explcita si consideramos la variedad desde el punto de vista
extrnseco, como se muestra p. ej. en la figura 5.1 (dcha.) para el transporte de un vector sobre una
superficie esferica (al final de este apartado volveremos sobre esta cuestion).
Figura 5.1: Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y
en una esfera.
Conexion de Levi-Civita
Si describimos la variedad por medio de un determinado sistema de coordenadas (definido al
menos localmente en un cierto entorno), la conexion de Levi-Civita queda descrita en dicho sistema
de coordenadas por medio de un conjunto de coeficientes, llamado coeficientes de la conexion, dados
por las derivadas direccionales de los vectores de la base natural del espacio tangente en terminos
de esa misma base, es decir, por las componentes que aparecan en la ec. (5.1). Estos coeficientes
se denominan smbolos de Christoel de segunda especie, con frecuencia simplemente smbolos de
Christoel, y se denotan habitualmente por kij
ti ti
kij = tk = g k t j (5.2)
y j y
{ }
k
(a veces se emplea la notacion i j ). Normalmente las componentes que aparecen contradas con
g k
al final de la expresion anterior se definen como smbolos de Christoel de primera especie, y se
denotan como ij (a veces se emplea la notacion [ij, ])
ti
ij = [ij, ] = t (5.3)
y j
de modo que los smbolos de Christoel de segunda especie estan dados por
{ }
k k
ij = = g k ij (5.4)
i j
{ }
Las notaciones i k j y [ij, ] se emplean a veces para recalcar que estos coeficientes no se transfor-
man bajo cambios de base como las componentes de un tensor, tal y como veremos mas adelante.
Los smbolos de Christoel estan totalmente determinados por las derivadas parciales del tensor
metrico respecto de las coordenadas generalizadas empleadas. Para convencernos de esto observa-
mos en primer lugar que como consecuencia de la propia definicion de la base natural (ec. (4.36))
se cumple
ti tj 2r
= = (5.5)
y j y i y i y j
y por tanto los smbolos de Christoel de primera y segunda especie cumplen las reglas de simetra
1
ij = (gi,j + gj,i gij, ) (5.8)
2
5.1. TRANSPORTE PARALELO 115
Como consecuencia los smbolos de Christoel de segunda especie pueden calcularse por medio de
1
kij = g k (gi,j + gj,i gij, ) (5.9)
2
en terminos (exclusivamente) del tensor metrico y sus primeras derivadas respecto de cada coor-
denada. Por tanto los smbolos de Christoel son una propiedad intrnseca de la variedad, ya que
pueden calcularse sin hacer referencia a nada externo a la propia variedad en consideracion. Esto
hace que el transporte paralelo y la derivada covariante, ambos definidos a partir de la conexion de
Levi-Civita, sean tambien propiedades intrnsecas de la variedad.
La propiedad mas importante que define los smbolos de Christoel de segunda especie es que
expresan como varan los vectores de la base, en terminos de esa misma base, al desplazarnos por
la variedad. Re-escribiendo la ec. (5.2) esto queda como
ti
= kij tk (5.10)
y j
que expresa la conexion del fibrado tangente.
Estos mismos coeficientes determinan tambien la conexion del fibrado co-tangente. Para verlo
basta con derivar respecto de la coordenada y j la expresion
tk ti = ik (5.11)
tk
= kij ti (5.12)
y j
que expresa como vara la base dual, en terminos de la propia base dual, al desplazarnos por la
variedad.
Los smbolos de Christoel describen por tanto la conexion en los fibrados tangente y co-tangente
de manera local, es decir, en un cierto entorno alrededor de cada punto de la variedad.
y p y q y n r 2 y p y n
nlm = + (5.13)
y l y m y r pq y l y m y p
Esta ley sera una ley de transformacion tensorial 2-covariante 1-contravariante de no ser por el
termino afn que aparece en el segundo sumando de ec. (5.11). Como puede verse este termino
aparecera siempre que la transformacion de coordenadas y i = y i (y j ) sea no lineal, siendo nulo solo
en el caso de una transformacion de coordenadas lineal. Por tanto los smbolos de Christoel no
son las componentes de un tensor.
El caracter no tensorial de los smbolos de Christoel esta relacionado con el caracter no tensorial
de la derivacion parcial respecto de la coordenadas generalizadas, tal y como veremos al final de
este captulo.
116 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
1 ti
= kij tk (5.16)
hj y j
i
1 t k
= ikj t (5.17)
hj y j
donde los smbolos de Christoel fsicos estan dados por
( )
hk k ln hi
k
ij = ij i
k
(5.18)
hi hj y j
donde no hay suma en ningun ndice. La expresion anterior puede calcularse en terminos del tensor
metrico como
gkk gi
ij = kij ik ij
k
(5.19)
gii gjj gii gjj
donde solo se aplica el convenio de suma de Einstein al ndice , no hay suma respecto de los demas
ndices.
5.1. TRANSPORTE PARALELO 117
Observacion: Es importante darse cuenta de que los Christoel fsicos no son simetricos bajo
intercambio de sub-ndices i j, es decir
kij = kji , pero en general kij = kji (5.20)
Por otra parte, derivando respecto de la coordenada generalizada y j en ti ti = 1 (sin suma en i),
que se cumple por definicion de base natural normalizada, encontramos que los Christoel fsicos
cumplen la propiedad
gik k
= 0, sin suma en i (5.21)
hk ij
donde solo se aplica el convenio de suma de Einstein al ndice k.
que expresa la condicion de no variacion del vector v a lo largo de la curva . Esta condicion se
cumple de manera independiente de la curva considerada, al menos localmente, siempre que se
cumpla
v,ji + v k ikj = 0 (5.27)
por tanto esta condicion define, al menos localmente, como varan las componentes del vector
v = v i ti al transportarlo de manera paralela en un entorno del punto A.
Si en lugar del desarrollo en terminos de la base del espacio tangente expresamos v por medio
de las componentes co-variantes v = vi ti el resultado equivalente a la anterior ec. (5.27) es
imponiendo la condicion
dT ()
=0 (5.30)
d
para cualquier curva () que una los puntos A y B, al menos localmente, deducimos que la
condicion que define el transporte paralelo de este tensor es
s
r
Tji11ji22...j
...is
r ,k
+ Tji11ji22...j
...pm ...is im
r
pm k Tji11ji22...q
...is
qn = 0
n ...jr jn k
(5.31)
m=1 n=1
5.1. TRANSPORTE PARALELO 119
tal y como puede deducirse facilmente siguiendo los mismos pasos que nos han llevado a las re-
laciones ec. (5.27) y ec. (5.28). Como puede verse, cada componente contravariante introduce un
termino adicional dado por la derivada de cada ti y cada componente covariante introduce a su
vez un termino adicional dado por la derivada de cada ti . Por otra parte, por medio de ec. (5.16)
y ec. (5.17) podemos obtener las relaciones, totalmente equivalentes a las anteriores, que definen el
transporte paralelo en terminos de las componentes fsicas.
Como caso particular, si el tensor T es un escalar (0 componentes covariantes y 0 componentes
contravariantes) la relacion anterior se reduce de manera trivial a T,k = 0, independientemente de la
variedad y del sistema de coordenadas empleado, tal y como mencionabamos al inicio del captulo
para el transporte paralelo de escalares. Esto significa que el transporte paralelo del producto escalar
u v es igual al producto escalar de estos dos vectores en el punto de partida.
5.1.4. Curvatura
Estrictamente hablando las anteriores relaciones (ec. (5.27), ec. (5.28), o en general ec. (5.30))
permiten realizar el transporte paralelo de un tensor cualquiera solamente de manera local, es decir,
desde un punto A hasta un punto infinitamente proximo A+dA. Para realizar el transporte paralelo
desde A hasta un punto B, que diste de A una cierta distancia finita, sera necesario integrar la
ecuacion diferencial ordinaria ec. (5.30) a lo largo de alguna curva () que una los dos puntos
de interes. En este caso nos preguntamos si el resultado del transporte paralelo depende o no de
la curva () empleada para calcularlo, en particular si realizamos el transporte paralelo en un
circuito cerrado:
dy p
dy q
dy q
dy p
transportarse de manera paralela a lo largo del circuito cerrado definido por los desplazamientos
sucesivos segun dy q , dy p , dy q , dy p . El resultado puede escribirse como
v i (dy q , dy p ) v i (dy p , dy q ) = Rkpq
i
v k dy p dy q (5.37)
5.2. DERIVADA COVARIANTE 121
i
donde se define el tensor de curvatura de Riemann Rkpq como
i
Rkpq = p ikq q ikp + ip kq iq kp (5.38)
de forma que el transporte paralelo de un vector en un circuito cerrado infinitesimal deja invariante
al vector solo si el tensor de curvatura de Riemann es nulo. De manera analoga a como hemos hecho
para el caso de un vector, se puede calcular como vara un tensor de rango arbitrario al recorrer
un circuito cerrado infinitesimal, y puede verse facilmente que el resultado analogo a la ec. (5.38)
para el caso de un tensor de rango arbitrario tambien puede escribirse en terminos del tensor de
curvatura de Riemann.
El tensor Rkpqi describe de manera local la curvatura de una variedad de Riemann con conexion
k
dada por ij y es uno de los objetos centrales de estudio en geometra diferencial. Este objeto
tambien se aplica a variedades pseudo-Riemannianas, siendo uno de los ingredientes basicos de la
teora general de la relatividad de Einstein.
df f (x + h) f (x)
= lm
dx h0 h
a una magnitud tensorial definida sobre una variedad diferenciable, vemos que esto implica com-
parar magnitudes pertenecientes a los espacios tangentes en dos puntos distintos: x + h y x. Por
tanto para calcular una derivada direccional sobre una variedad necesitamos transportar de manera
paralela la magnitud f (x) al punto x + h, para lo cual debemos tener en cuenta como vara la base
del espacio tangente, tal y como hemos hecho en el apartado anterior.
Conviene tener presente que en muchos textos se emplea la notacion f,i directamente para
la derivada covariante (en ese caso no se define ninguna notacion especial para la derivada
parcial). Otra notacion habitual en la literatura para la derivada covariante es f|i , o f/i , sobre
todo en textos antiguos.
La derivada covariante se define como la operacion de derivada direccional que tiene en cuenta
las variaciones de la base del espacio tangente. Por ejemplo, tomando la derivada respecto de la
coordenada curvilnea y j del vector a = ai ti encontramos
( i )
a ai i ti a i k
a;j = = j ti + a = + kj a ti (5.39)
y j y y j y j
Por tanto, la derivada covariante del vector de componentes contravariantes ai se define como
T ;k = Tji11ji22...j
...is
t ti2 . . . tis tj1 tj2 . . . tjr
r ;k i1
(5.44)
De esta forma la condicion de constancia del tensor T a lo largo de una curva parametrica ()
con velocidad V j tj , dada por ec. (5.30), se reduce a
dTji11ji22...j
...is
r
= Tji11ji22...j
...is
r ;k
Vk =0 (5.46)
d
Por tanto dada una curva parametrica, el producto de contraccion de la derivada covariante con el
vector velocidad de la curva proporciona la derivada del tensor a lo largo de la curva, denominada
con frecuencia derivada absoluta a lo largo de la curva.
Como consecuencia de esto la operacion de derivada covariante conmuta con las operaciones
de subida y bajada de ndices.
T ;k tk = Tji11ji22...j
...is
t ti2 . . . tis tj1 tj2 . . . tjr tk
r ;k i1
(5.56)
y se define como el gradiente del tensor T (a veces se dice gradiente covariante), de esta manera
generalizamos el concepto de gradiente, familiar para el caso de escalares, al caso de tensores
de rango arbitrario. En los primeros captulos de este curso hemos estudiado el significado del
concepto de tensor, y hemos visto que la invariancia de un tensor bajo cambios de base implica
que sus componentes se transforman de una determinada forma al realizar un cambio de base en el
espacio. En el caso de la derivada covariante esto implica que si T es un tensor de orden r-covariante
s-contravariante, las componentes de su derivada covariante (Tji11ji22...j
...is
r ;k
) se transforman segun una
ley tensorial tipo r + 1-covariante s-contravariante bajo reparametrizaciones de la variedad. Por
tanto, la derivada covariante incrementa en una unidad el orden covariante del objeto sobre el que
se aplica. En particular, las componentes de la derivada covariante de una funcion escalar forman
un vector, las componentes de la derivada covariante de orden 2 de un escalar definen un tensor
de orden 2, de igual manera que la derivada covariante de un vector tambien define un tensor de
orden 2.
Es evidente que una ley fsica, para ser valida, debe ser independiente del sistema de coordenadas
empleado para formularla. Por tanto, el caracter invariante de la derivada covariante bajo cambios
de coordenadas hace que esta sea la operacion de derivacion direccional adecuada para formular
leyes fsicas que involucren variaciones espaciales de campos tensoriales.
f,i ti (5.57)
es invariante bajo cambios de coordenadas, lo que implica que f,i son las componentes de un vector
covariante, que se define como el vector gradiente del escalar f . Dado que la demostracion de estas
cuestiones no es demasiado complicada, la dejamos para los ejercicios.
Sin embargo las segundas derivadas parciales de f no definen un tensor, es decir, el objeto
definido por f,ij ti tj no esta bien definido desde el punto de vista tensorial ya que depende del
sistema de coordenadas empleado. Esto se debe a que para calcular las segundas derivadas del
escalar f , es decir, las derivadas de orden 1 del vector gradiente, debemos tener en cuenta tambien
como vara la base natural del espacio co-tangente. Si tenemos esto en cuenta es facil verificar que
el objeto dado por las segundas derivadas covariantes del escalar f
f;ij ti tj (5.58)
s es invariante bajo reparametrizaciones de la variedad, por tanto las componentes f;ij corresponden
a un tensor 2-covariante.
5.2. DERIVADA COVARIANTE 125
y p y q y n r 2 y p y n
nm = m r
pq + m p (5.59)
y y y y y y
y s y n y s
Multiplicando por la matriz inversa de y n /y p (es decir, teniendo en cuenta que y n y p = y p =
ps ) y despejando deducimos
2ys n y
s y p y q s
= (5.60)
y y m m
y n y y m pq
relacion que emplearemos mas abajo.
Veamos primero el caso de un vector covariante Ti . Por definicion las componentes de este vector
se transforman segun
y k
Ti = Tk (5.61)
y i
Derivando esta relacion respecto de la coordenada y j (nos referimos a la derivada parcial ordinaria)
y aplicando la regla de la cadena encontramos
Ti 2yk y k Tk
j
= i j
Tk + (5.62)
y y y y i y j
Teniedo esto en cuenta y sustituyendo la derivada segunda de y k por medio de ec. (5.60) llegamos
a ( k p q
)
Ti n y k y y y k y q Tk
= ij pq T k + (5.64)
y j y n y i y j y i y j y q
de donde despejamos ( )
Ti Tp y p y q
nij Tn = npq Tn (5.65)
y j y q y i y j
es decir
y p y q
Ti;j = Tp;q (5.66)
y i y j
Por tanto las componentes Ti;j se transforman bajo un cambio de sistema de coordenadas como un
objeto tensorial 2-covariante, es decir, la derivada covariante de un vector covariante es un tensor
2-covariante.
Veamos ahora el caso de un vector contravariante, para ello partimos de la ley de transformacion
y i k y i k
T i = T , Ti = T (5.67)
y k y k
126 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
Derivando respecto de la coordenada y j y operando como hemos hecho en el caso anterior llegamos
a ( )
T i y k n y
i
i y y
p q y i T k
= jk pq T k
+ (5.68)
y k y j y n y j y k y k y j
i
Multiplicando por la matriz inversa de yyk (dada por yy i ), reordenando y renombrando los ndices
encontramos ( p ) i q
T i i k T p k y y
+ kj T = + kq T (5.69)
y j y q y p y j
es decir
y i y q
T;ji = T;qp (5.70)
y p y j
tal y como corresponde a un objeto 1-covariante 1-contravariante. Para tensores de rango tensorial
superior se pueden deducir relaciones analogas.
1 i1 i2 ...is
s
i1 i2 ...pm ...is im
r
Tji11ji22...j
...is
r ;k
= Tj1 j2 ...jr ,k + Tj1 j2 ...jr pm k Tji11ji22...q
...is
qn
n ...jr jn k
(5.71)
hk
m=1 n=1
(sin suma en k) donde las componentes fsicas de la conexion se han estudiado antes en este captulo.
dv
a= = v ;j v j (5.72)
d
para calcular esta expresion aplicamos la regla de la cadena
dv dti ti
= y i ti + y i = y i ti + j y i y j (5.73)
d d y
5.4. PROBLEMAS 127
Expresando la variacion de los vectores de la base por medio de los smbolos de Christoel este
resultado puede escribirse como ( )
a = y k + kij y i y j tk (5.74)
donde y i denota la segunda derivada respecto de . En consecuencia vemos que las componentes
del vector aceleracion a = ak tk estan dadas por
Esta forma de expresar la ley de Newton es mas complicada que la habitual en coordenadas car-
tesianas, pero tiene la gran ventaja de ser valida independientemente del sistema de coordenadas
empleado, lo que hace posible la comparacion de resultados entre observadores que empleen sistemas
de coordenadas distintos.
5.4. Problemas
P.5.1. Verificar la relacion ec. (5.10).
P.5.11. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas cartesianas.
P.5.12. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas cilndricas.
P.5.13. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas esfericas.
P.5.14. Deducir la ley de transformacion del tensor de curvatura de Riemann bajo un cambio de
coordenadas.
128 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
P.5.15. Dado el escalar f , demostrar que f;i ti define un objeto invariante bajo cambios de coordena-
das, es decir, un tensor.
P.5.16. Verificar la ley tensorial correspondiente para la derivada covariante de un vector covariante
y de uno contravariante.
P.5.17. Si sabemos que un campo vectorial v cumple v;ji = 0 que podemos afirmar sobre vi;j ?
P.5.18. Las derivadas parciales tradicionales de una funcion escalar conmutan f,ij = f,ji . Que puede
decirse en este sentido sobre las derivadas covariantes cruzadas? Se cumple la relacion f;ij =
f;ji ? Razone la respuesta.
P.5.19. Calcule la expresion del vector aceleracion en R3 Eucldeo en coordenadas cartesianas, cilndri-
cas y esfericas.
tk
= kij ti
y j
P.5.5P.5.7. En este ejercicio vamos a deducir la expresion de los smbolos de Christoel en componentes
fsicas: Ecs. (5.16)-(5.19) del texto.
Como sabemos, los smbolos de Christoel se definen por medio de
( )
ti k ti
k
= ij tk donde ij t , j
k
y j y
Por otro lado, la base natural normalizada del espacio tangente tiene la forma
ti
ti = , es decir ti = hi ti
hi
mientras que para el espacio dual del espacio tangente, o espacio cotangente, tendremos
i
t = g ij tj = hi hj g ij tj = hi ti
5.5. BIBLIOGRAFIA 129
ya que
1
gij = gij , g ij = hi hj g ij , sin suma en i, j
hi hj
Podemos reemplazar estas expresiones en la ecuacion inicial
( )
ti hi ti
= kij tk = hk kij tk
y j y j
y desarrollar
hi ti
j
ti + hi j = hk kij tk
y y
Despejando obtenemos
( ) ( )
ti hi k hi k ln hi
hi j = hk kij tk j ti = hk ij i j tk = hk ij hk i
k k
tk
y y y y j
Para obtener la expresion de kij en funcion del tensor metrico (Ec. (5.19)) sustituimos los fac-
tores de escala por sus correspondientes componentes en el tensor metrico: hs = (ts , ts )1/2 =
gss , lo que da
( ) ( )
hk k ln hi gkk k 1 hi
k
ij tk = ij i
k
= ij i
k
hi hj y j gii gjj gii y j
5.5. Bibliografa
Para este captulo se ha consultado principalmente [1], [2], [7] , [8] y [13].
130 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
Captulo 6
En este captulo presentamos las versiones con comportamiento tensorial bien definido de los
operadores diferenciales habituales en fsica, basadas en la derivada covariante definida en el captulo
precedente. Los resultados se presentan de forma general para un caso arbitrario. En el caso de un
espacio Eucldeo se presentan tambien las expresiones correspondientes a un sistema de coordenadas
ortogonales. Al final del captulo aplicamos estos resultados para generar las expresiones de los
operadores diferenciales habituales en el caso del espacio Eucldeo R3 en coordenadas cartesianas,
cilndricas y esfericas. Aunque estos sistemas de coordenadas son, con diferencia, los que mas
se usan, el material presentado en este captulo permite deducir la expresion de los operadores
diferenciales habituales en cualquier sistema de coordenadas, no necesariamente ortogonales. De
esta forma, el material que presentamos aqu completa el objetivo de esta primera parte del curso.
f g ij f
f = g ij tj = tj (6.2)
y i hi y i
1 f 1 f
f = 2 i
ti = ti (6.3)
hi y hi y i
131
132 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES
En todas las expresiones anteriores se sobre-entiende que la base ti es la base natural del sistema
de coordenadas generalizadas empleado, mientras que la base ti es la base natural normalizada,
siendo los hi los factores de escala correspondientes.
Como puede verse las componentes covariantes y contravariantes del vector gradiente son, en
general, distintas, incluso si el espacio es eucldeo y la base es ortogonal. Las componentes co- y
contra-variantes solo coinciden si el espacio es eucldeo y si la base es ortonormal, tal y como sucede
con las componentes fsicas cuando se usa un sistema de coordenadas curvilneas ortogonales.
El gradiente de un vector v es un tensor de orden 2. A partir de las componentes contravariantes
de v este tensor esta definido por
( )
v k
v = v;jk tk tj = + ij v tk tj
k i
(6.4)
y j
1
A = ijk Ak;j ti = ijk Ak;j ti (6.11)
g
6.2. COORDENADAS CURVILINEAS ORTOGONALES HABITUALES 133
hi hj hk ijk
A= Ak;j ti (6.12)
g
donde la ultima expresion debe entenderse como una regla nemotecnica, no como una definicion.
Vectores tangentes
1 0 0 1 0 0
t1 = 0 , t 2 = 1 , t3 = 0 , t1 = 0 , t2 = 1 , t3 = 0
0 0 1 0 0 1
134 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES
z
k
j
i
r
x
Figura 6.1: Coordenadas cartesianas.
Tensor metrico
1 0 0 1 0 0
gij = 0 1 0 , g ij = 0 1 0
0 0 1 0 0 1
Gradiente
v1 v1 v1
( ) x y z
v2 v2
f = f f f , v = x v2
x y z y z
v3 v3 v3
x y z
6.2. COORDENADAS CURVILINEAS ORTOGONALES HABITUALES 135
Divergencia
(T ) + (T12 ) + (T13 )
x 11 y z
v = (v1 ) + (v2 ) + (v3 ) , T = x (T21 ) +
(T22 ) +
(T23 )
x y z y z
x
(T31 ) + y
(T32 ) + z
(T33 )
Rotacional ( )
v = v
z
2
+ v3
y
v1
z
v3
x
v
y
1
+ v2
x
Laplaciano ( ) ( ) ( )
f f f
2 f = + +
x x y y z z
y
x
Figura 6.2: Coordenadas cilndricas.
y1 = r = x2 + y 2 x1 = x = r cos
y 2 = = arctan xy x2 = y = r sen
y3 = z x3 = z
Matriz jacobiana
cos() (r sin()) 0
Ji j = sin() r cos() 0
0 0 1
Vectores tangentes
( )
sin()
cos() (r sin()) 0 cos() 0
r
t1 = sin() , t2 = r cos() , t3 = 0 , t1 = sin() , t2 = cos()
, 3
t = 0
r
0 0 1 0 0 1
Tensor metrico
1 0 0 1 0 0
gij = 0 r2 0 , g ij = 0 r2 0
0 0 1 0 0 1
Gradiente v1
v1 v2 v1
r
z
( f )
r
v2
r
f = f f , v = v
r2
v1 v2
z
+
r r z
r
v3
r
v3 v3
r r z
Divergencia
(T ) (r T ) (r T )
T22
12
+ r 11
+ z 13
( r) r r r
(v2 ) (r v1 ) (r v3 ) T22 T21
v =
+ r
+ z
, T = +
(T21 ) + z (T23 ) + T12
+
r r r r
r
(r T )
r
(r T )
r
(T 32 ) 31 33
r
+ r r + z
r
Rotacional ( )
v3 v1
v = v 2
+ v1
v3 v2
+ v2
z r z r r r r
Laplaciano ( ) ( ) ( )
1 f
r
r
r f
r
z
r f
z
2 f = + +
r r r
ur
u
r
r u
y
x
Vectores tangentes
cos() sin() r cos() cos() (r sin() sin())
t1 = sin() sin() , t2 = r cos() sin() , t3 = r cos() sin()
cos() (r sin()) 0
( )
cos() cos() csc() sin()
cos() sin()
r r
t1 = sin() sin() , t2 = cos()rsin() , t3 = cos() csc()
( ) r
sin()
cos() r 0
Tensor metrico
1 0 0 1 0 0
gij = 0 r2 0 , g ij = 0 r2 0
2
csc()
0 0 r2 sin()2 0 0 r2
Gradiente
v1
v1
v2 ( v3 ) v1
csc()
r
+ r
( ) r r r
f v2 ( ) v2
v =
f csc() csc()
f = f , v
r2
+ v1
v3 cot()
+
r r r r
v3
r r
v3
r
v3 v1 v2 cot()
csc()
r r r
+ r
+ r
Divergencia
( 2 )
r v1 sin() csc() (r v2 sin()) csc()
(r v3 ) csc()
v = r
+
+
r2 r2 r2
( ) (r T ) csc()
T22 T33
(r2 T11
sin()) csc() (r T
12 sin()) csc() 13
r +
r
r
+ r2
+ r2 r2
T = 21 sin()) csc()
(T (T23 ) csc() (r T
T T T33 cot() 22 sin()) csc()
r12 + r21
r
+ + +
r
(T
r
(r T )
r r
(T32 ) 33 csc()) r 31 T13 T31 T23 cot() T32 cot()
r
+ r
+ r
+ r + r + r
+ r
Rotacional ( )
v3 v2 v1 v1
csc() csc()
v =
+
v3 cot()
v 3
v3
+ v2
+ v2
r r r r r r r r r
Laplaciano ( ) ( ) ( )
f
csc() csc()
r
r2 sin() f
r
csc()
sin() f
csc()
f =
2
+ +
r2 r2 r2
6.3. Bibliografa
Para este captulo se han consultado los textos generales de calculo tensorial, geometra dife-
rencial y algebra [3, 5, 4, 8, 12, 13], as como [18].
Apendice A
En este apartado presentamos una coleccion de formulas de uso frecuente, validas en el caso
habitual de R3 con metrica Eucldea. De las expresiones que incluimos a continuacion, las que estan
escritas como ecuaciones vectoriales sin ndices son validas en cualquier sistema de coordenadas;
por el contrario, las ecuaciones de este captulo en las que aparecen ndices, solo son validas en el
sistema de coordenadas cartesianas.
A.1. Notacion
La notacion empleada en este apartado es la habitual:
Las cantidades en negrita representan vectores o, en general, magnitudes tensoriales no
escalares (es decir, de rango tensorial superior a cero).
Si en algun momento es necesario distinguir entre las componentes covariantes y contravarian-
tes de un tensor (por ejemplo A), las componentes covariantes se denotaran por subndices
(Ai ) y las contravariantes por superndices (Ai ).
A menos que se diga lo contrario supondremos que se estan empleando coordenadas cartesia-
nas, de tal forma que Ai denota la iesima componente cartesiana del vector A: Ai = ei A.
Dado que la base dual a la base cartesiana {i, j, k} coincide con ella misma, las componentes
covariantes y contravariantes respecto de esta base coinciden.
Convenio de suma de Einstein: A menos que se diga lo contrario se sobreentiende que si
en una expresion aparece un ndice repetido la expresion representa la suma respecto de ese
ndice, que por tanto es un ndice mudo.
Delta de Kronecker:
1 si i=j
ij j
ij = = i = (A.1)
0 si i = j
Smbolo alternante de Levi-Civita:
+1 si ijk es una permutacion par de 123
ijk = 1 si ijk es una permutacion impar de 123 (A.2)
0 si hay algun ndice repetido
139
140 APENDICE A. FORMULAS DE ANALISIS VECTORIAL
A B = Ai Bi (A.3)
A B = ijk Ai Bj ek (A.4)
Formulas utiles
A (B C) = B (C A) = C (A B) (A.5)
A (B C) = B (A C) C (A B) (A.6)
(A B) C = B (A C) A (B C) (A.7)
(A B) (C D) = (A C) (B D) (A D) (B C) (A.8)
(A B) (C D) = C (A (B D)) D (A (B C))
= B (A (C D)) A (B (C D)) (A.9)
U
grad U = U ei = (A.11)
xi
Ai
div A = A = (A.12)
xi
Aj
rot A = A = ijk ek (A.13)
xi
( )
2 2 2
lap A = A = A = (A) =
2
+ + A (A.14)
x2 y 2 z 2
Formulas utiles
(U ) = 0 (A.15)
( A) = 0 (A.16)
( ) = 0 (A.17)
1 ( 2)
(A ) A = A + ( A) A (A.18)
2
2 A = ( A) ( A) (A.19)
A.4. TEOREMAS INTEGRALES 141
(U A) = (U ) A + U ( A) (A.20)
(U A) = (U ) A + U ( A) (A.21)
(A B) = B ( A) A ( B) (A.22)
(A B) = (B ) A B ( A) (A ) B + A ( B) (A.23)
(A B) = (B ) A + (A ) B + B ( A) + A ( B) (A.24)
donde M es una variedad diferenciable n-dimensional con frontera M , es una forma diferencial
y d denota la derivada exterior.
Expresion alternativa
Dado que no es tan estandar como los teoremas integrales anteriores, en este apartado se incluye
la deduccion de la expresion alternativa del teorema del rotacional empleada para calcular la fuerza
de tension superficial ejercida sobre un elemento de superficie.
En primer lugar, dado el campo vectorial f definimos f = F b, donde b es un vector arbitrario
constante. Con esto el Teorema de Stokes queda como
( (F b)) n d = (F b) dl (A.29)
S S
(F b) = (b ) F b ( F ) (A.30)
ya que b es un vector constante. Aplicando la identidad vectorial (Ec. A.5) y sustituyendo (Ec.
A.30) en (Ec. A.29) encontramos
b F dl = [b ( F ) (b ) F ] n d (A.31)
S S
Recordando que el vector b es arbitrario, la expresion alternativa del teorema del rotacional
queda finalmente como
F dl = [( F ) n (F ) n] d (A.32)
S S
Bibliografa
Para elaborar este apendice se ha consultado [19] y [24] junto con las enciclopedias en internet
[26] y [29].
144 APENDICE A. FORMULAS DE ANALISIS VECTORIAL
Bibliografa
En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes.
Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliografa
complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el
debido credito a todas las fuentes consultadas.
[2] Bowen, R. M. and C. C. Wang: Introduction to Vectors and Tensors. Dover, 1976.
[4] Danielson, D. A.: Vectors and Tensors in Engineering and Physics. Perseus, 2003.
[5] do Carmo, M. P.: Geometra Diferencial de Curvas y Superficies. Alianza Universidad Textos,
1995.
[6] Flanders, H.: Dierential Forms with Applications to the Physical Sciences. Dover, 1990.
[7] Frankel, T.: The Geometry of Physics: An Introduction. Cambridge University Press, 1997.
[12] Lovelock, D. and H. Rund: Tensors, Dierential Forms, and Variational Principles. Dover,
1989.
145
146 BIBLIOGRAFIA
Mecanica Clasica
[16] Arnold, V. I.: Mathematical Methods of Classical Mechanics. Springer-Verlag, second ed.,
1990.
[17] Crawford, F.: Curso de Fsica de Berkeley (T.3): Ondas. Reverte, 1971.
Mecanica de Fluidos
[18] Aris, R.: Vectors, Tensors and the Basic Equations of Fluid Mechanics. Dover, 1990.
[19] Emanuel, G.: Analytical Fluid Dynamics. Lewis Publishers, second ed., 2000.
Relatividad
[20] Misner, C. W., K. S. Thorne, and J. A. Wheeler: Gravitation. W. H. Freeman and Company,
1973.
[21] Wald, R. M.: General Relativity. The University of Chicago Press, 1984.
[22] Weinberg, S.: Gravitation and Cosmology: Principles and Applications of the General Theory
of Relativity. Wiley, 1972.
[25] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre. The Wikimedia Foundation, Inc., since
2001. http://es.wikipedia.org/.
[26] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia. The Wikimedia Foundation, Inc.,
since 2001. http://www.wikipedia.org/.
[27] Weisstein, E. (ed.): Eric Weissteins World of Physics. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/physics/.
147
[28] Weisstein, E. (ed.): Eric Weissteins World of Science. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/.
[29] Weisstein, E. (ed.): Mathworld: the webs most extensive mathematics resource. Wolfram
Research Inc., since 1999. http://mathworld.wolfram.com/.
Otras referencias
LATEX
[30] http://wikipedia.org/wiki/LaTeX.
[31] Cascales Salinas, B. y cols.: LATEX una imprenta en sus manos. Aula Documental de Investi-
gacion, 2000.
[32] Kopka, H. and P. W. Daly: A Guide to LATEX: Document Preparation for Beginners and
Advanced Users. Addison-Wesley, third ed., 1999.
[33] Oetiker, T. et al.: The Not So Short Introduction To LATEX 2 . Or LATEX 2 in 157 min-
utes. Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/
lshort/english/lshort.pdf.
Linux
[34] http://www.linux.org.
[35] http://www.gnu.org.
[36] http://wikipedia.org/wiki/Linux.
aplicacion dual, 14
lineal, 17, 20, 34 Eucldeo, 12
multilineal, 42 metrico, 8
no Eucldeo, 13
base, 4 normado, 8
cambio de, 17 orientable, 60
dual, 14, 19 pre-Hilbert, 10
ortonormal, 13 producto tensorial, 39
producto tensorial, 39 tangente, 81
componentes topologico, 82
contravariantes, 19, 20, 31, 59 vectorial, 1
covariantes, 19, 20, 31, 59
fibrado
convenio de suma de Einstein, 11
cotangente, 81
coordenadas, 5
tangente, 81
delta de Kronecker, 13
grados de libertad, 31
dependencia lineal, 4
Gram-Schmidt, 13
derivada
covariante, 38 homeomorfismo, 82
parcial, 38
desigualdad triangular, 7, 8 identidad
diada, 39 BACCAB, 68
dimension, 4 independencia lineal, 4
del conjunto de coordenadas, 31 ndices
finita, 5 contraccion de, 42
infinita, 5 contravariantes, 31
distancia, 7 covariantes, 31
libres, 11
elemento
mudos, 11
neutro, 4
permutacion de, 47
nulo, 3, 4
subida y bajada de, 20, 46
opuesto, 3, 4
inversiones, 22
envolvente lineal, 5
espacio Levi-Civita, 63, 64
completo, 10 ley de transformacion tensorial, 31, 59
cotangente, 81
de Banach, 10 metrica
de Hilbert, 10 Riemanniana, 12
de Riemann, 12 matriz
149
150 INDICE ALFABETICO
adjunta, 22 afn, 40
ortogonal, 22 antisimetrico, 47
unitaria, 22 asociado, 46
axial, 57, 59
norma, 7, 9 campo tensorial, 38
Cartesiano, 48
orientacion, 60, 61 contravariante, 47
covariante, 47
paridad, 59
criterios de tensorialidad, 44
permutaciones, 22
de esfuerzos, 34
peso, 59
de tensiones, 34
potencia tensorial, 40
definicion, 39
Producto
densidad tensorial, 57, 59
de densidades tensoriales, 60
isotropo, 48
producto
metrico, 10, 16, 21
de contraccion, 43
orden, 31
diadico, 39
polar, 57, 59
escalar, 8
rango tensorial, 31, 32
exterior, 70
relativo, 57, 59
interior, 8
simetrico, 47
por escalares, 1, 3, 41
teorema
tensorial, 39, 41
de Riesz-Frechet, 14
triple escalar, 68
topologa
triple vectorial, 68
metrica, 12
vectorial, 65, 66
transformacion
propiedad
ortogonal, 22
anticonmutativa, 68, 77
unitaria, 22
asociativa, 3, 4, 39, 40, 67, 77
Binet-Cauchy, 68 variedad, 81
conmutativa, 3 vector, 3, 19
distributiva, 4, 8, 39, 67, 76
hermtica, 8
Jacobi, 68, 78
proyeccion ortogonal, 13
pseudotensor, 57, 59
rotaciones, 22
subespacio
independiente, 6
vectorial, 6
suma
de tensores, 41
de vectores, 1, 3
directa, 6
tensor, 29
absoluto, 57, 59