Sie sind auf Seite 1von 164

Apuntes de Calculo Tensorial

Manuel Arias Zugasti


Pedro Cordoba Torres
Alvaro Guillermo Perea Covarrubias
Cristina Mara Santa Marta Pastrana

Ultima modificacion: 3 de octubre de 2016


ii
Indice

Prefacio XI

1. Espacios vectoriales 1
1.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Metrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1. Espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3. Tensor metrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4. Topologa metrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Espacios Eucldeos y de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2. Espacios no Eucldeos: espacio dual y base dual . . . . . . . . . . . . . . . . . 14
1.4. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.1. Definicion de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.2. Cambios de base sobre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.3. Cambios de base sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . . 20
1.4.4. Ley de transformacion del tensor metrico . . . . . . . . . . . . . . . . . . . . 21
1.4.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.1. Soluciones a problemas seleccionados (Tema 1) . . . . . . . . . . . . . . . . . 25
1.6. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2. Tensores 29
2.1. Concepto de tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1. Tensores en fsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.2. Rango tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.3. Ley de transformacion de tensores generales . . . . . . . . . . . . . . . . . . . 31
2.2. Magnitudes fsicas de rango tensorial superior . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1. Tensores de polarizabilidad y de conductividad electrica . . . . . . . . . . . . 32
2.2.2. Tensor de esfuerzos o de tensiones . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.3. Derivacion de campos tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3. Definicion de tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.1. Espacio producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.2. Tensores afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

iii
iv INDICE

2.3.3. Algebra tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


2.3.4. Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4. Aplicaciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.1. Contraccion de ndices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2. Producto de contraccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5. Criterios de tensorialidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.6. Tipos de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.7.1. Soluciones a problemas seleccionados (Tema 2) . . . . . . . . . . . . . . . . . 50
2.8. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3. Densidades tensoriales 57
3.1. Ley de transformacion de densidades tensoriales generales . . . . . . . . . . . . . . . 59
3.1.1. Producto de densidades tensoriales . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2. Espacios orientables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.1. Bases ordenadas y orientacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3. Smbolo alternante de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.1. Tensor alternante de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4. Producto vectorial en espacios tridimensionales . . . . . . . . . . . . . . . . . . . . . 65
3.4.1. Definicion de producto vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.2. Calculo de volumenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.3. Rotaciones infinitesimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5. Introduccion al producto exterior de p-formas . . . . . . . . . . . . . . . . . . . . . . 70
3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.6.1. Soluciones a problemas seleccionados (Tema 3) . . . . . . . . . . . . . . . . . 73
3.7. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4. Campos tensoriales 81
4.1. Variedades diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.1.1. Curvas y superficies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.1.2. Geometra intrnseca y extrnseca . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.1.3. Ejemplos de variedades en fsica . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.1.4. Diferenciabilidad y parametrizaciones . . . . . . . . . . . . . . . . . . . . . . 91
4.1.5. Ejemplos de variedades y parametrizaciones . . . . . . . . . . . . . . . . . . . 94
4.2. Fibrados tangente y cotangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.2.1. Espacio tangente a un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 96
4.2.2. Espacio tangente de una variedad diferenciable . . . . . . . . . . . . . . . . . 97
4.3. El espacio vectorial Rn en coordenadas curvilneas . . . . . . . . . . . . . . . . . . . 101
4.3.1. Base natural y metrica del espacio tangente . . . . . . . . . . . . . . . . . . . 102
4.3.2. Componentes fsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.3. El espacio Eucldeo R3 en coordenadas cilndricas . . . . . . . . . . . . . . . 106
4.3.4. El espacio Eucldeo R3 en coordenadas esfericas . . . . . . . . . . . . . . . . 107
4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.4.1. Soluciones a problemas seleccionados (Tema 4) . . . . . . . . . . . . . . . . . 108
4.5. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
INDICE v

5. Derivacion de campos tensoriales 111


5.1. Transporte paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.1. Smbolos de Christoel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.1.2. Smbolos de Christoel en componentes fsicas . . . . . . . . . . . . . . . . . 116
5.1.3. Transporte paralelo de vectores y tensores . . . . . . . . . . . . . . . . . . . . 117
5.1.4. Curvatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.2. Derivada covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.2.1. Comportamiento tensorial de la derivada covariante . . . . . . . . . . . . . . 124
5.2.2. Derivada covariante en componentes fsicas . . . . . . . . . . . . . . . . . . . 126
5.3. Vector aceleracion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4.1. Soluciones a problemas seleccionados (Tema 5) . . . . . . . . . . . . . . . . . 128
5.5. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

6. Operadores diferenciales habituales 131


6.1. Operadores diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.1.1. Gradiente covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.1.2. Divergencia covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.3. Rotacional covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.4. Laplaciano covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2. Coordenadas curvilneas ortogonales habituales . . . . . . . . . . . . . . . . . . . . . 133
6.2.1. Coordenadas cartesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2.2. Coordenadas cilndricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.2.3. Coordenadas esfericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.3. Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

A. Formulas de analisis vectorial 139


A.1. Notacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.2. Productos escalares y vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.3. Gradiente, divergencia, rotacional y laplaciano . . . . . . . . . . . . . . . . . . . . . 140
A.4. Teoremas integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.4.1. Teorema del gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.4.2. Teorema de la divergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.4.3. Teorema del rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.4.4. Otros teoremas integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
A.4.5. Identidades de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

Bibliografa 145

Indice alfabetico 149


vi INDICE
Lista de figuras

1.1. Vectores en 2 dimensiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3


1.2. Esquema de inclusiones para espacios vectoriales normados. . . . . . . . . . . . . . . 10

2.1. El producto n es la fuerza por unidad de superficie ejercida por el medio situado
en el lado hacia donde apunta la normal sobre el medio situado al otro lado. . . . . . 35
2.2. Elemento infinitesimal de medio material con forma de tetraedro. . . . . . . . . . . . 36

3.1. Banda de Moebius. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4.1. Deformacion continua de una esfera en un cubo. . . . . . . . . . . . . . . . . . . . . 82


4.2. Ejemplos de variedades monodimensionales contenidas en el plano. . . . . . . . . . . 83
4.3. Ejemplos de variedades bidimensionales contenidas en R3 . En la imagen central se
ha representado tambien el plano z = 1 y en la ultima el plano z = 0. . . . . . . . . 85
4.4. El pendulo simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5. Plano de fases de un pendulo simple. La trayectoria marcada en rojo (E = Es ) es la
separatriz entre las trayectorias cerradas (E < Es ) y las abiertas (E > Es ). . . . . . 89
4.6. Isotermas de un fluido de van der Waals. Las lneas rojas corresponden al fluido
supercrtico, las azules a la fase lquida y las verdes a la fase gas. . . . . . . . . . . . 90
4.7. Parametrizacion de una variedad diferenciable. . . . . . . . . . . . . . . . . . . . . . 92
4.8. Compatibilidad entre coordenadas generalizadas de una variedad diferenciable. . . . 94
4.9. Partcula movil en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.10. Coordenadas cilndricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.11. Coordenadas esfericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.1. Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y en


una esfera. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.2. Transporte paralelo a lo largo del circuito dy q , dy p , dy q , dy p en una variedad con
curvatura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

6.1. Coordenadas cartesianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134


6.2. Coordenadas cilndricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.3. Coordenadas esfericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

vii
viii LISTA DE FIGURAS
Lista de tablas

1.1. Comportamiento de tensores de orden 2 bajo cambios de base (ei = Cij ej , D C 1 ). 23

3.1. Paridad del tensor dado por el producto tensorial o de contraccion (respecto de
cualquier par de ndices) de dos tensores A y B. . . . . . . . . . . . . . . . . . . . . 61
3.2. Dimensionalidad del producto exterior de dos vectores en funcion de la dimensiona-
lidad (n) del espacio vectorial al que pertenecen. . . . . . . . . . . . . . . . . . . . . 72

ix
x LISTA DE TABLAS
Prefacio

Contexto y objetivos
Estos apuntes son el material basico para el estudio de la primera parte de la asignatura Metodos
Matematicos IV (primer semestre del tercer curso del Grado en Fsica) impartido por la UNED
desde el curso 2012-2013. El temario de esta parte de la asignatura es el habitual en un primer
curso de calculo tensorial para fsicos e incluye desde las nociones basicas (componentes co- y
contra-variantes de vectores) hasta temas avanzados (transporte paralelo, derivada covariante y
version covariante de los operadores diferenciales habituales en coordenadas generalizadas). En la
exposicion se presuponen conocimientos basicos de algebra lineal, calculo con funciones de varias
variables y tambien algunos conocimientos de fsica general (sobre todo de mecanica y tambien
algo de electromagnetismo y termodinamica) que si bien no son necesarios para esta asignatura se
emplean en algunos ejemplos y para mostrar la motivacion fsica de esta rama de las matematicas.
Estos apuntes estan especialmente orientados para estudiantes de fsicas. En la exposicion hemos
procurado complementar las definiciones formales habituales con ejemplos y explicaciones intuitivas
y practicas.
Las principales aplicaciones del calculo tensorial en fsica son, a grandes rasgos, la descripcion de
diversas variables fsicas por medio de campos tensoriales (escalares, vectoriales o de rango tensorial
superior). El contexto en que se definen estos campos tensoriales es generalmente una variedad dife-
renciable n-dimensional sobre la que se han definido unas coordenadas generalizadas que recorren la
variedad, y cuyo espacio tangente tiene estructura de espacio de Riemann (conceptos que veremos
a lo largo de este curso), en particular el caso mas sencillo de espacio Eucldeo tri-dimensional es
especialmente frecuente e importante. Los tensores se emplean en general para describir multitud
de variables en todos los campos de la fsica. Las aplicaciones del calculo tensorial en relatividad
son sobradamente conocidas, en ese caso los tensores se emplean tambien para la descripcion de la
curvatura de variedades diferenciables con vistas al posterior estudio de las ecuaciones de Einstein,
que relacionan esta curvatura con la densidad de energa y momento presentes en la variedad. De
todas formas la teora de la relatividad no es el unico campo en que esta materia es importante.
El estudio de campos tensoriales en coordenadas generalizadas se aplica de manera rutinaria en
todas las areas de la fsica basadas en teoras de campos, por ejemplo este es el caso de areas como
la mecanica de fluidos (o en general la mecanica de medios continuos) o el electromagnetismo, y
por tanto es de gran interes no solo en fsica, sino tambien en ingeniera. Los tensores tambien se
emplean para describir operaciones de simetra de muchos sistemas fsicos, lo cual es importante ya
que normalmente la existencia de cierto grado de simetra en un sistema fsico tiene importantes
consecuencias en su dinamica. Esto es especialmente importante en diversas areas de la fsica, inclu-
yendo desde la mecanica cuantica (con aplicaciones, p. ej., en fsica molecular y estado solido) hasta
termodinamica de sistemas alejados del equilibrio (p. ej., dicho analisis explica el desacoplamiento
entre fuerzas y flujos generalizados de rango tensorial distinto en medios isotropos).

xi
xii PREFACIO

Gua de estudio
Los objetivos de esta parte del curso son, por tanto, familiarizarse con los conceptos necesarios
para operar con campos tensoriales en coordenadas generalizadas en espacios de Riemann de dimen-
sion arbitraria, comprendiendo el significado geometrico de los objetos y operaciones matematicas
empleados. Posiblemente el objetivo mas importante de esta parte del curso sea familiarizarse con
la derivada covariante, tanto en componentes holonomas como en componentes fsicas, que son las
empleadas generalmente en las aplicaciones en espacios Eucldeos. Por supuesto, para entender esta
parte es necesario estudiar antes algunos conceptos previos, para ello el material esta distribuido
de la siguiente forma:

Captulo 1: Se presenta un repaso general de conceptos relacionados con espacios vectoriales. Se


revisan desde el punto de vista tensorial diversos conceptos ya conocidos sobre algebra y
vectores. Se define la operacion de cambio de base, estudiandose su aplicacion sobre tensores
de hasta segundo orden. Al hacer esto se definen las componentes co- y contra- variantes,
que emplearemos constantemente durante el resto del curso. En este apartado se introduce
tambien el conocido convenio de suma de Einstein para las expresiones con ndices repetidos
y los conceptos de ndice mudo o libre, cuyo uso sera frecuente durante el resto del curso.
El contenido de este captulo es totalmente basico, por este motivo es muy importante com-
prender bien estos conceptos. Para afianzar estas ideas se recomienda realizar la coleccion de
problemas propuestos al final del captulo.

Captulo 2: Se emplean algunos ejemplos fsicos para justificar el uso de tensores de rango mayor
que la unidad. Se generalizan los conceptos presentados en el primer captulo al caso de ten-
sores de orden arbitrario. En este apartado es muy importante familiarizarse con el concepto
de producto tensorial, tensor afn y producto de contraccion, que son la base sobre la que
trabajaremos el resto del curso. Como aplicacion directa de estos conceptos es importante
comprender y saber emplear los criterios de tensorialidad, introducidos en este captulo. Co-
mo ejercicio para esta parte se debe trabajar en la aplicacion de cambios de base y subida y
bajada de ndices (mencionados en el primer captulo) sobre tensores generales (en particular
deben estudiarse algunos ejemplos de rango superior a 2). Al finalizar este captulo tambien
debe estar totalmente dominado el uso del convenio de suma de Einstein y la manipulacion
de expresiones con ndices mudos.

Captulo 3: El concepto de tensor definido en el captulo 2 se generaliza aqu para incluir los
pseudotensores, de gran importancia en fsica (p. ej. el producto vectorial, el rotacional de
un campo vectorial, o el determinante del tensor metrico). En este apartado es especialmente
importante comprender la definicion tensorial del producto vectorial, que nos permitira poste-
riormente calcular productos vectoriales y rotacionales de campos vectoriales en coordenadas
generalizadas. Como aplicacion de los conceptos introducidos hasta el momento, en este tema
tambien es especialmente importante observar que los pseudotensores se transforman como
verdaderos tensores bajo cambios de base ortogonales (en particular bajo rotaciones de los
ejes). Al final de este apartado se incluye una introduccion mas o menos intuitiva al calculo
exterior, que queda fuera del temario de esta asignatura.

Captulo 4: Hasta este momento solo hemos hablado de tensores definidos sobre un espacio vecto-
rial. En este apartado se generaliza este concepto al espacio fibra, definido sobre una variedad
diferenciable. El calculo con campos tensoriales era el objetivo basico de esta parte del curso,
xiii

por tanto son muy importantes los conceptos de fibrado tangente y cotangente y sus bases
habituales, en particular las bases definidas por las tangentes a las lneas coordenadas (que
dan lugar a las componentes holonomas) y la correspondiente base de vectores tangentes uni-
tarios (que da lugar a las componentes fsicas). Como ejercicio para afianzar estos conceptos
en este tema se deben estudiar ejemplos practicos de cambios de base inducidos en los fibrados
tangente y cotangente cuando se realiza un cambio de coordenadas en la variedad de partida.
Los cambios de coordenadas mas habituales en el espacio tridimensional Eucldeo son espe-
cialmente importantes (es decir, el paso de coordenadas cartesianas a coordenadas cilndricas
y esfericas), aunque tambien deberan considerarse otros ejemplos mas complicados. Es muy
importante saber distinguir entre las componentes holonomas (co- y contra-variantes) y las
componentes fsicas, y tambien trabajar con ellas.

Captulos 5 y 6: Por ultimo llegamos al que era el objetivo principal del curso, la derivada co-
variante. Para comprender este concepto se estudia primero el transporte paralelo, ilustrado
con diversos ejemplos sobre variedades con y sin curvatura, la conexion de Levi-Civita y los
smbolos de Christoel. A continuacion se define el concepto de derivada covariante, tanto
en componentes holonomas como en componentes fsicas. Como ejercicio de aplicacion de
estos conceptos es importante estudiar la deduccion de las expresiones de los operadores dife-
renciales habituales en fsica (gradiente, divergencia, rotacional y laplaciano) en coordenadas
generalizadas, tanto en el caso de coordenadas generalizadas ortogonales como no ortogonales.
En particular es importante el caso de las coordenadas de uso mas extendido: cartesianas,
cilndricas y esfericas.

Tras esta primera parte del curso estamos en condiciones de poder calcular las expresiones de
los operadores diferenciales habituales en fsica en cualquier sistema de coordenadas generalizadas,
tanto en el espacio tridimensional Eucldeo habitual como en variedades diferenciables con metrica
de Riemann. Esto es interesante, por ejemplo, para analizar problemas de mecanica de fluidos o de
electromagnetismo empleando un sistema de coordenadas adaptado a la geometra del problema
(suponiendo que no haya singularidades geometricas, como esquinas o bordes, y siempre y cuando
la geometra no sea demasiado complicada). Como ejercicio de aplicacion de estos conceptos es
interesante la programacion del calculo de las expresiones de los operadores diferenciales habituales
en coordenadas generalizadas en un entorno de calculo simbolico, aunque el escaso tiempo de que
disponemos y el caracter algo avanzado de este problema lo desaconsejan, excepto para algunos
estudiantes avanzados que tengan suficiente experiencia en programacion.
Tras esta parte del curso estamos tambien en condiciones optimas para iniciar el estudio de la
segunda parte del curso: geometra diferencial, donde nos centraremos en el estudio de curvas y
superficies (incluyendo temas como geometra intrnseca, primera y segunda forma fundamental,
operador de Weingarten, etc.). El material para la segunda parte es el libro de Martin M. Lips-
chultz mencionado en la gua del curso (Dierential Geometry, editado por McGraw-Hill). Tras
esta segunda parte del curso estaremos en condiciones de estudiar la teora general de la relatividad
de Einstein, en la que todas las nociones aprendidas en este curso (y algunas mas no incluidas) se
emplean de manera rutinaria.

Agradecimientos
Nos gustara dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y
el proyecto GNU por poner a nuestra disposicion herramientas informaticas gratuitas de verdadera
xiv PREFACIO

calidad. Este documento ha sido elaborado ntegramente con el procesador de textos LATEX 2 , los
esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa
de diseno xfig, ambos programas van incluidos en cualquier distribucion del sistema operativo
gratuito Linux.
Captulo 1

Espacios vectoriales

Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continua-
cion revisaremos algunos de los conceptos mas importantes relativos a vectores, cuya generalizacion
al caso de tensores sera el objeto de esta parte del curso. Comenzamos revisando brevemente los
conceptos de vector, espacio vectorial, normas, distancias, productos escalares, bases y aplicaciones
lineales, ya estudiados en cursos anteriores. Posteriormente veremos como cambian las componen-
tes de un vector, o de una aplicacion lineal, al realizar un cambio de base en el espacio, esto nos
servira de punto de partida para definir el concepto de tensor en el proximo captulo.

1.1. Concepto de espacio vectorial


En el lenguaje coloquial se denomina con cierta frecuencia vector a cualquier lista unidimen-
sional de datos numericos, con un numero de elementos mayor que la unidad, dispuestos entre
parentesis y separados por comas. Desde el punto de vista matematico esto no siempre es correcto.
Por ejemplo, si consideramos el conjunto de datos dados por el ano en curso, la temperatura del
sitio donde nos encontremos y la cotizacion de cualquier moneda frente al euro, es evidente que
dicho conjunto de datos difcilmente podra considerarse como un vector (tendra algun significado
aplicar una rotacion sobre semejante lista de datos?). Sin embargo, la posicion de un movil en el
espacio o su velocidad s estan dados por vectores.

Que es lo que distingue a un verdadero vector de un mero conjunto de datos?

Un vector es un elemento de un espacio vectorial, es decir, es un miembro de una estructura de


elementos sobre los que se han definido ciertas operaciones (suma de vectores y multiplicacion por
escalares) que tienen unas determinadas propiedades (conmutativa, asociativa, elemento neutro,
elemento opuesto) las cuales dotan al conjunto de una determinada estructura. Concretamente
estas propiedades garantizan que podamos construir cualquiera de los elementos del espacio como
combinacion lineal de unos pocos de ellos, y que al aplicar una operacion lineal (como p. ej. una
rotacion) sobre cualquier elemento del espacio obtenemos otro elemento del espacio. En particular
cualquier elemento del espacio vectorial puede construirse como combinacion lineal de un conjunto
de vectores linealmente independientes, que forman una base del espacio vectorial en consideracion,
y se define la dimension del espacio vectorial como el cardinal (el numero de elementos) de cualquiera
de sus bases. Esto es muy importante, ya que nos permite trabajar con vectores por medio de sus
componentes respecto a una base cualquiera del espacio, y tambien nos permite describir cualquier
aplicacion lineal definida sobre el espacio vectorial por medio de su matriz asociada, dada por la

1
2 CAPITULO 1. ESPACIOS VECTORIALES

accion de la aplicacion lineal sobre cualquier base del espacio. Lo que diferencia a un vector (o a una
matriz) de una mera caja de numeros es que los vectores son objetos geometricos pertenecientes a
un espacio vectorial, de tal forma que sus componentes son las proyecciones de estos vectores sobre
una determinada base del espacio, y las matrices por su parte son las proyecciones de la actuacion
de una determinada aplicacion lineal sobre una base del espacio vectorial. Dado un vector (o una
aplicacion lineal) perteneciente a un cierto espacio vectorial, si aplicamos un cambio de base en
el espacio el vector (o la aplicacion lineal) sigue siendo el mismo, pero sus componentes cambian
siguiendo una ley de transformacion que esta determinada por el cambio de base que hayamos
aplicado, tal y como veremos en este captulo. Es muy importante que estos conceptos queden
claros, ya que son la base indispensable para comprender los tensores.
Normalmente los vectores que se emplean en fsica pertenecen a espacios vectoriales normados,
es decir, espacios vectoriales sobre los que se ha definido una operacion, llamada norma, que permite
medir la longitud de los vectores. Se entiende que esta longitud esta medida en las unidades
que tengan los vectores del espacio en consideracion (p. ej. velocidad, aceleracion, fuerza, campo
electrico, . . . ), de forma que no tiene por que ser una longitud en el sentido coloquial del termino. La
operacion norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio,
dada por la norma del vector diferencia. Esto nos permite juzgar si dos vectores de este espacio
son proximos o no y tambien nos permite juzgar si una sucesion de elementos de este espacio es
convergente o no, dependiendo de si la distancia entre dos elementos consecutivos de la sucesion
tiende a cero. La operacion distancia dota al conjunto de vectores que forma el espacio vectorial de
una topologa inducida por la metrica, convirtiendo el espacio vectorial en un objeto con significado
geometrico, apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios
con una metrica diferente y por extension nos permite tambien imaginar espacios similares con un
numero de dimensiones diferente a las 3 a las que estamos habituados,
En el contexto de la fsica es habitual definir como magnitudes escalares a aquellas para cuya
especificacion completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la
masa, la carga electrica o el tiempo en la mecanica Newtoniana. Por oposicion a las anteriores, se
definen como magnitudes vectoriales a aquellas para las que es preciso especificar, ademas de su
magnitud, una direccion y un sentido. De esta forma resulta muy natural describir como vectores
la posicion, la velocidad, la aceleracion, o las fuerzas. Estas magnitudes fsicas, que nos resultan
tan conocidas y naturales, hacen que el concepto de vector resulte facil e intuitivo. Tambien resulta
intuitivo el significado de las operaciones basicas definidas sobre los vectores. Por ejemplo, si un
movil esta en el punto A y realiza un movimiento dado por el vector B, la posicion final del movil
esta dada por A + B, si sobre un movil se aplican simultaneamente las fuerzas f 1 y f 2 el movil se
ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir
al punto B tendremos que desplazarnos segun el vector dado por la diferencia B A.

1.1.1. Definicion y propiedades


Los espacios vectoriales se definen siempre haciendo referencia a un cierto conjunto de escalares,
es decir, de numeros, que se emplean para construir combinaciones lineales de vectores. En general
supondremos que sobre estos escalares se han definido las operaciones aritmeticas habituales (suma,
resta, multiplicacion y division), cuyas propiedades dotan al conjunto de escalares de una cierta
estructura denominada cuerpo. Los dos casos de cuerpos de escalares mas frecuentes son el de los
numeros reales R y el de los numeros complejos C. En fsica es especialmente frecuente considerar
espacios vectoriales definidos sobre el cuerpo de los numeros reales, en este curso este sera el caso
que consideraremos salvo que se diga lo contrario. De todas formas, a continuacion incluimos las
1.1. CONCEPTO DE ESPACIO VECTORIAL 3

f1
A
A+B
f1 + f2
f2

Figura 1.1: Vectores en 2 dimensiones.

definiciones formales en el caso general abstracto de un cierto cuerpo K de escalares.


Un espacio vectorial E, sobre el cuerpo de escalares K, se define como una estructura dada por
un conjunto de elementos llamados vectores (x), sobre los que se han definido las operaciones de
suma de vectores y producto por escalares:
Suma de vectores: Para cualquier pareja de vectores x e y pertenecientes a E existe un unico
vector z perteneciente a E dado por la suma x + y.

x, y E, ! z = x + y E (1.1)

La operacion suma de vectores cumple las siguientes propiedades:

Propiedad conmutativa
x, y E, x+y =y+x (1.2)
Propiedad asociativa

x, y, z E, (x + y) + z = x + (y + z) (1.3)

Elemento nulo: Existe un unico vector nulo (0) en E tal que para cualquier x de E se
cumple 0 + x = x
! 0 E / x E, 0 + x = x (1.4)
Elemento opuesto: Para cualquier x de E existe un unico vector x de E tal que su
suma con x es el elemento nulo

x E, ! x E / x + (x) = 0 (1.5)

Producto por escalares: Para cualquier vector x perteneciente a E y cualquier escalar per-
teneciente al cuerpo K existe un unico vector perteneciente a E dado por el producto x

x E, K, ! z = x E (1.6)
La operacion producto por escalares cumple las siguientes propiedades:
4 CAPITULO 1. ESPACIOS VECTORIALES

Propiedad asociativa

x E, , K, (x) = () x (1.7)

Propiedad distributiva respecto de la suma de escalares

x E, , K, ( + ) x = x + x (1.8)

Propiedad distributiva respecto de la suma de vectores

x, y E, K, (x + y) = x + y (1.9)

Elemento neutro de los escalares:

x E, 1x = x (1.10)

Elemento nulo de los escalares:

x E, 0x = 0 (1.11)

Elemento opuesto de los escalares:

x E, 1x = x (1.12)

Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composicion
de movimientos, o de fuerzas, que a todos nos resulta familiar. Decamos al principio de este
apartado que el objeto de los escalares era formar vectores de como combinaciones lineales de otros
vectores del espacio. Las propiedades anteriores nos garantizan que si x e y son vectores de E
(x, y E) y y son escalares de K (, K) entonces la combinacion lineal x + y es un
vector de E. En el apartado siguiente emplearemos esta propiedad para definir el concepto de base
del espacio vectorial.

1.1.2. Bases y dimension


Un conjunto de n vectores {e1 , . . . , en } se dice linealmente independiente cuando es imposible
encontrar n numeros {1 , . . . , n } no todos nulos, tales que

1 e1 + 2 e2 + + n en = 0 (1.13)

y en caso contrario se dice linealmente dependiente. Veamos el significado de esta definicion. Por
un lado es obvio que la Ec. (1.13) siempre tiene la solucion trivial 1 = 2 = = n = 0; por
otra parte, si esta ecuacion tiene alguna otra solucion diferente de la trivial lo que sucede es que,
en ese caso, podemos despejar uno de estos vectores como combinacion lineal de los restantes. Si
la unica solucion de Ec. (1.13) es la solucion trivial, entonces resulta imposible despejar ninguno
de los vectores {e1 , . . . , en } como combinacion lineal de los restantes, esto es lo que significa que el
conjunto {e1 , . . . , en } sea linealmente independiente.

Cual es el numero maximo de vectores linealmente independientes que podemos tomar en


un espacio vectorial?
1.1. CONCEPTO DE ESPACIO VECTORIAL 5

El numero maximo de vectores linealmente independientes que podemos tomar en un espacio


vectorial se define como la dimension del espacio vectorial. Vamos a intentar elaborar un razona-
miento mas o menos intuitivo para entender este concepto.
Consideremos el caso de un conjunto formado por un unico vector {e1 } (distinto de 0), es
evidente que este conjunto siempre es linealmente independiente. La envolvente lineal del conjunto
{e1 }, definida por los vectores x E dados por

x = 1 e1 1 R (1.14)

nos genera la recta que pasa por el origen 0 y que tiene direccion dada por e1 . Para cualquier vector
x que pertenezca a esta recta el sistema {e1 , x} es linealmente dependiente, lo que implica que x es
sencillamente proporcional a e1 . Supongamos ahora un vector e2 que no pertenezca a la envolvente
lineal de e1 . En este caso el conjunto {e1 , e2 } es linealmente independiente, y la envolvente lineal
de este conjunto, definida por los vectores x E dados por

x = 1 e1 + 2 e2 1 , 2 R (1.15)

nos genera el plano que pasa por el origen y contiene a e1 y e2 . Para cualquier vector x contenido en
este plano el conjunto {e1 , e2 , x} es linealmente dependiente, lo que indica que x puede escribirse
como combinacion lineal de {e1 , e2 }. Si anadimos otro vector e3 que no pertenezca a este plano el
conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio
tridimensional engendrado por los vectores {e1 , e2 , e3 }, de tal forma que cualquier vector de este
espacio puede construirse como combinacion lineal de {e1 , e2 , e3 }.
En principio podramos seguir anadiendo sucesivamente mas vectores ei E linealmente in-
dependientes a todos los anteriores, pero si nuestro espacio vectorial E es de dimension finita (n)
llega un momento que la envolvente lineal del conjunto {e1 , . . . , en }, dada por

x = 1 e1 + 2 e2 + + n en 1 , 2 , . . . , n R (1.16)

coincide con todo el espacio vectorial E. En ese caso resulta imposible anadir ningun elemento
en+1 E (distinto de 0) que sea linealmente independiente a todos los anteriores.
En consecuencia, dado un espacio vectorial E de dimension finita n se define como base de E a
cualquier conjunto de n vectores linealmente independientes {e1 , . . . , en }, todos ellos pertenecientes
a E y distintos de 0. La propiedad importante que define a una base es que para cualquier x E el
conjunto {e1 , . . . , en , x} es linealmente dependiente, lo que implica que x puede expresarse como
combinacion lineal de {e1 , . . . , en }

x E x = x1 e1 + x2 e2 + + xn en (1.17)
{ }
y se definen los numeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x res-
pecto a la base {e1 , . . . , en }. Por otra parte, el cardinal del mayor conjunto de vectores linealmente
independientes que podamos tomar en el espacio vectorial E se define como la dimension del es-
pacio vectorial. En la discusion anterior hemos asumido tacitamente que el espacio vectorial E
estaba definido sobre el cuerpo de los reales R, para simplificar la exposicion. En un caso mas
general podemos repetir los mismos pasos haciendo que los numeros i tomen valores en el cuerpo
K correspondiente, y el resultado final es totalmente analogo.
En este curso solo estudiaremos espacios vectoriales de dimension finita. En algunos casos con-
sideraremos una dimension finita arbitraria (n) y en otros nos centraremos en el caso especialmente
6 CAPITULO 1. ESPACIOS VECTORIALES

relevante del espacio tridimensional. De todas formas conviene recordar que tambien existen es-
pacios vectoriales de dimension infinita, de gran importancia en ciertas areas de las matematicas
(p. ej. en analisis funcional) y tambien extremadamente relevantes en fsica, por sus aplicaciones
en el estudio de ecuaciones diferenciales y en mecanica cuantica. Como ejemplo de espacio vecto-
rial de dimension infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son
funciones. Por ejemplo, es muy facil ver que el conjunto de polinomios de una variable (x)

p(x) = a0 + a1 x + a2 x2 + a3 x3 + + an xn (1.18)

cumple todas las propiedades necesarias para ser un espacio vectorial. Tambien es muy facil ver que
las funciones xn y xm son linealmente independientes siempre que n = m, esto parece indicar que
podramos tomar como base { de este espacio funcional
} al conjunto dado por las sucesivas potencias
2 3 n
enteras de la variable x: 1, x, x , x , . . . , x , . . . . Pero en ese caso cual es el valor maximo de n
que debemos tomar para garantizar que cualquier polinomio de x esta incluido en la envolvente
lineal de la base? Claramente ningun valor finito de n es suficiente, por tanto la dimension de este
espacio vectorial es infinita. Los espacios funcionales tienen (normalmente) infinitas dimensiones, y
esa circunstancia hace que en ellos aparezcan otros problemas que no aparecen en los de dimension
finita.
Volviendo a los espacios de dimension finita, una propiedad interesante de las envolventes lineales
de los sucesivos conjuntos de vectores que hemos ido considerando ({e1 }, {e1 , e2 }, {e1 , e2 , e3 }, . . . ,
{e1 , . . . , en }), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que ademas
estan contenidos en el espacio vectorial E y por tanto se denominan subespacios vectoriales. La
demostracion de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial
se deja para los ejercicios. Otra propiedad importante cuya demostracion se deja para los ejercicios,
es que la descomposicion de cualquier vector x como combinacion lineal de la base (Ec. (1.17)) es
unica. Por ultimo, dada cualquier base {e1 , . . . , en } del espacio E, se dice que E se descompone en
suma directa () de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)


n
E= envolvente lineal de ei (1.19)
i=1

donde la suma directa de dos subespacios vectoriales independientes E1 y E2 (es decir, cuya inter-
seccion se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que
pueden definirse como combinacion lineal de vectores de E1 y E2 .
En general, dado un espacio vectorial con n dimensiones, se llama base canonica a la formada
por los vectores

e1 = {1, 0, 0, . . . , 0} (1.20)
e2 = {0, 1, 0, . . . , 0} (1.21)
... ... ... ... ... ... (1.22)
en = {0, 0, 0, . . . , 1} (1.23)

Esta sera la base que emplearemos constantemente. Uno de los temas centrales del estudio de
tensores es como cambian las componentes de diversos objetos definidos en un espacio vectorial
(vectores, aplicaciones lineales, tensor metrico, etc.) al realizar un cambio de base en el espacio, es
decir, al pasar de la base canonica a otra base distinta.
1.2. METRICA 7

1.2. Metrica
1.2.1. Espacios vectoriales normados
El siguiente ingrediente que necesitamos para dotar al espacio vectorial E de significado geometri-
co es definir una operacion distancia d(, ). Para ello basta con disponer de una funcion, llamada
norma , que nos permita medir la longitud de cada vector x de E. Una vez definida esta
funcion, la distancia entre cualquier par de vectores x, y E (que denotaremos por d(x, y)) puede
definirse, p. ej., como la norma del vector diferencia

x, y E, d(x, y) y x (1.24)

Para que la funcion distancia se corresponda con lo que intuitivamente se entiende por distancia
esta funcion debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser
igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad
triangular y que la distancia de x a 0 debe ser || veces la distancia de x a 0 (para cualquier
vector x E y cualquier escalar K, siendo || el valor absoluto de ). Como consecuencia se
define la operacion norma como cualquier funcion definida sobre el espacio vectorial E que
cumpla las siguientes propiedades
La operacion norma es definida positiva

x E, x 0 (1.25)

El unico elemento de E con longitud cero es el elemento nulo de E


x = 0 si y solo si x = 0 (1.26)

Comportamiento respecto al producto por escalares

x E, K, x = || x (1.27)

Desigualdad triangular
x, y E, x + y x + y (1.28)

Una vez definida una operacion norma, la distancia entre dos vectores cualesquiera del espacio
puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.24)), aunque esta no es
la unica posibilidad. En general puede tomarse como operacion distancia a cualquier funcion que
cumpla las siguientes propiedades
La operacion distancia es definida positiva

x, y E, d(x, y) 0 (1.29)

Dos vectores separados por una distancia nula son el mismo vector

d(x, y) = 0 si y solo si x = y (1.30)

Simetra
x, y E, d(x, y) = d(y, x) (1.31)
8 CAPITULO 1. ESPACIOS VECTORIALES

Desigualdad triangular

x, y, z E, d(x, z) d(x, y) + d(y, z) (1.32)

En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.24)),
que es la opcion mas habitual, las propiedades que cumple la operacion norma garantizan que la
operacion distancia d(, ) cumple las propiedades anteriores. Un espacio vectorial sobre el que se
ha definido una operacion norma se denomina espacio normado, los espacios vectoriales sobre los
que se ha definido una operacion distancia se denominan espacios metricos.

1.2.2. Producto escalar


Una vez definida la operacion distancia, el ultimo ingrediente que necesitamos para dotar a
los elementos de E de una estructura geometrica es definir una operacion que nos permita medir
angulos, lo cual nos permitira definir el concepto de ortogonalidad. Para ello se introduce la funcion
producto escalar (o producto interior), que denotaremos indistintamente por

producto escalar de x por y (x, y) x y (1.33)

Dado el espacio vectorial E sobre el cuerpo K, se define la operacion producto escalar ( , ) como
una funcion definida sobre E E con imagen en K

x1 , x2 E, (x1 , x2 ) K (1.34)

que cumpla las siguientes propiedades


Propiedad hermtica
x1 , x2 E, (x1 , x2 ) = (x2 , x1 ) (1.35)
donde z es el complejo conjugado del numero complejo z.
Si el cuerpo K es el de los numeros reales esta propiedad se reduce a la relacion de simetra
x1 , x2 E, (x1 , x2 ) = (x2 , x1 ) (1.36)

Propiedad distributiva respecto a la suma de vectores en el segundo argumento

x1 , x2 , x3 E, (x1 , x2 + x3 ) = (x1 , x2 ) + (x1 , x3 ) (1.37)

de donde se deduce

x1 , x2 , x3 E, (x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 ) (1.38)

Linealidad respecto al producto por escalares en el primer argumento

x1 , x2 E, K, (x1 , x2 ) = (x1 , x2 ) (1.39)

de donde se deduce

x1 , x2 E, K, (x1 , x2 ) = (x1 , x2 ) (1.40)

En el caso en que K = R esta propiedad se reduce a


x1 , x2 E, R, (x1 , x2 ) = (x1 , x2 ) = (x1 , x2 ) (1.41)
1.2. METRICA 9

El producto escalar de un vector por s mismo es definido positivo

x E, (x, x) 0 (1.42)

El unico vector con producto escalar por s mismo nulo es el vector nulo

(x, x) = 0 si y solo si x = 0 (1.43)

Un espacio vectorial en el que se ha definido un producto escalar se denomina espacio dotado


de producto interno. Una vez definido el producto escalar podemos definir el angulo () formado
por dos vectores x e y a partir de la relacion

x y xy cos (1.44)

de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto
escalar x ei (con ei = 1) corresponde a la proyeccion ortogonal de x sobre la direccion definida
por el vector unitario ei . Si K = R y la metrica de E es eucldea esta definicion de x y se
corresponde con la definicion clasica del angulo formado por estos dos vectores. Definimos tambien
que dos vectores son ortogonales si y solo si su producto escalar es nulo

x y si y solo si x y = 0 (1.45)

Las propiedades que cumple la operacion producto escalar permiten definir una operacion norma
de manera natural por medio de
x (x, x)1/2 (1.46)
A partir de las propiedades que cumple la operacion producto escalar es muy facil comprobar que
la anterior relacion define una norma.
La existencia de una funcion producto escalar implica que podemos definir una funcion norma
por medio de Ec. (1.46), sin embargo el recproco no es cierto. Es decir, dada una funcion norma
no esta garantizado que sea posible definir una operacion producto escalar compatible con esta
norma. Existen funciones norma que no provienen de (o que no son compatibles con) ningun
producto escalar. No obstante los espacios vectoriales que suelen emplearse en fsica se caracterizan
precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de
espacios vectoriales se denominan en general espacios pre-Hilbert, y se reserva la denominacion
espacios de Hilbert para aquellos espacios que, ademas de tener una norma inducida por el producto
escalar, son completos (o de Banach). Donde se entiende por espacio de Banach (o completo) aquel
en el que para toda sucesion convergente de vectores enteramente contenida en el espacio (es decir,
para toda sucesion de Cauchy), el lmite al que tiende la sucesion tambien esta contenido en el
espacio. Para darse cuenta del significado de esta propiedad es interesante considerar el ejemplo del
espacio funcional dado por los polinomios de una variable a los que hacamos referencia antes. Para
ver que este espacio no es completo podemos considerar, p. ej., el desarrollo en serie de Taylor de la
funcion sen x, hasta orden N y centrado en el punto x = 0, que definimos como sN (x). Aplicando
la definicion de desarrollo en serie de Taylor se encuentra que dicho desarrollo esta dado por:

N
(1)n 2n+1
sN (x) = x
(2n + 1)!
n=0

Como es bien sabido, en el lmite N este desarrollo converge uniformamente a sen x (x R).
Para cualquier N finito este desarrollo es un polinomio, por tanto la sucesion {si (x)}N
i=1 (N =
10 CAPITULO 1. ESPACIOS VECTORIALES

Espacios Lineales Normados

Espacios de Banach
(completos)

Norma inducida por


el Producto Escalar
PreHilbert Hilbert

Figura 1.2: Esquema de inclusiones para espacios vectoriales normados.

1, 2, 3, . . . ) es convergente y esta enteramente contenida en el espacio de los polinomios, pero el


lmite al que tiende esta sucesion al hacer N no pertenece al espacio, ya que la funcion
sen x no es un polinomio. Como consecuencia deducimos que el espacio vectorial definido por los
polinomios de una variable no es un espacio completo (o lo que es lo mismo, no es un espacio de
Banach).
Los espacios de Hilbert son los espacios con un significado geometrico mas intuitivo y sencillo, y
son los mas empleados en fsica. Como ejemplos tpicos de espacios de Hilbert con dimension finita
tenemos Rn y Cn (ambos con dimension n), el caso de los espacios R, R2 y R3 (con dimension 1, 2
y 3 respectivamente) es especialmente habitual. Como ejemplo de espacio de Hilbert con dimension
infinita tenemos el espacio de Lebesgue L2 , formado por las funciones de cuadrado integrable.

1.2.3. Tensor metrico


A partir de este momento consideramos solamente el caso de un espacio vectorial de dimen-
sion finita (n) definido sobre el cuerpo de los numeros reales R.

Consideremos el producto escalar de dos vectores cualesquiera x e y. Dada una base cual-
quiera del espacio vectorial los vectores x e y estan dados por sus correspondientes desarrollos en
componentes

x = x1 e1 + x2 e2 + + xn en , y = y 1 e1 + y 2 e2 + + y n en (1.47)

Aplicando las propiedades de linealidad del producto escalar, x y puede ponerse como

n
n
xy = gij xi y j (1.48)
i=1 j=1

donde hemos definido el tensor metrico gij como la tabla de todos los productos escalares de los
vectores de la base
gij ei ej , i, j, = 1, . . . , n (1.49)
1.2. METRICA 11

Mas adelante veremos por que denominamos tensor a la lista de productos escalares que hemos
definido como gij , lo que debe quedar claro de momento es que gij contiene toda la informacion
necesaria para calcular el producto escalar de cualquier par de vectores del espacio en consideracion.
Por otra parte, en el caso de un espacio vectorial sobre los reales es evidente que el tensor metrico
debe ser simetrico
gij = gji (1.50)
ya que en ese caso se cumple ei ej = ej ei (i, j, ver Ec. (1.36)).

Convenio de Suma de Einstein


Al manejar tensores aparecen con mucha frecuencia expresiones como Ec. (1.48), donde se
realiza la suma de una expresion dependiente de uno o mas ndices (aqu i y j) para todos los
valores posibles de los mismos (es decir, desde 1 hasta la dimension del espacio n). El convenio de
suma de Einstein es un metodo muy extendido para simplificar la escritura de este tipo de formulas,
consiste en asumir que:

cualquier monomio donde aparezca un ndice repetido representa la suma del monomio res-
pecto al ndice repetido, para todos los valores posibles del ndice.

Aplicando el convenio de suma de Einstein el desarrollo de un vector en componentes (Ec.


(1.17)) se escribe como
x = x i ei (1.51)
y el producto escalar x y (Ec. (1.48)) puede escribirse sencillamente como

x y = gij xi y j (1.52)

donde los sumatorios respecto de i y j se sobreentienden.


En la anterior expresion los ndices i y j se denominan ndices mudos ya que el resultado no
depende de los smbolos empleados para denominar estos ndices

gij xi y j = gpq xp y q = g x y = g11 x1 y 1 + g12 x1 y 2 + + g21 x2 y 1 + + gnn xn y n (1.53)

(siendo n la dimension del espacio vectorial).


Por el contrario, se denominan ndices libres a aquellos respecto de los que no se realiza la suma.
En los dos ejemplos anteriores todos los ndices eran mudos, sin embargo en la expresion

Aij xj = y i (1.54)

el ndice j es mudo pero el ndice i es libre. La expresion anterior representa la componente i del
vector y, resultante de aplicar la aplicacion lineal A (con matriz asociada Aij ) sobre el vector x (con
componentes xj ), es decir, la expresion anterior es el desarrollo en componentes de A(x) = y. En
dicha expresion no hay ningun monomio en el que el ndice i este repetido, esto nos indica que no
se realiza la suma respecto del ndice i, y por tanto el resultado de esta operacion depende del valor
que asignemos a este ndice (para i = 1 obtenemos la componente y 1 , para i = 2 la componente y 2 ,
etc.).
En las expresiones anteriores algunos ndices son sub-ndices y otros super-ndices, y puede
apreciarse que siempre que aparece un ndice repetido este aparece 1 vez como sub-ndice y 1
vez como super-ndice. Como veremos a continuacion esto no es fruto de la casualidad, sino que
12 CAPITULO 1. ESPACIOS VECTORIALES

responde a un formalismo que emplearemos extensivamente a lo largo del curso. El uso de subndices
y superndices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a
cambios de base que existen (covariante y contravariante), tal y como veremos al final de este
captulo.
A partir de este momento supondremos que se aplica el convenio de suma de Einstein para
cualquier expresion en la que aparezca un monomio con ndices repetidos, a menos que se diga
explcitamente lo contrario.

1.2.4. Topologa metrica


La operacion distancia induce en el espacio vectorial una topologa, dada por la topologa
metrica. Es decir, una vez definida la operacion distancia d(, ) sobre el espacio vectorial, podemos
definir el conjunto de bolas abiertas (con radio r) en torno a cualquier punto x de E, como el
conjunto de puntos y E tales que d(x, y) < r. Existen muchos ejemplos de normas y de distancias
diferentes, cada uno de estos ejemplos genera una topologa diferente en el espacio. El ejemplo mas
habitual es el de la metrica eucldea, en el que definimos como distancia entre x e y a la longitud
de la lnea recta que une estos puntos.

1.3. Espacios Eucldeos y de Riemann


En general se llama metrica Riemanniana a cualquier metrica definida a traves de la norma
inducida por un producto escalar dado por un tensor metrico gij que cumpla las dos propiedades
siguientes:

simetra: gij = gji

invertibilidad: det gij = 0

Los espacios dotados de una metrica Riemanniana se llaman espacios de Riemann o Riemannianos.
Un caso particular de estos espacios son los espacios Eucldeos, definidos por la metrica Eucldea
habitual. En un espacio Eucldeo la distancia entre los puntos x e y esta dada por la longitud de
la lnea recta que une estos puntos, cuyo valor en un sistema de coordenadas cartesianas puede
calcularse por medio del teorema de Pitagoras, que para un espacio n-dimensional toma la forma

d(x, y) = (y 1 x1 )2 + (y 2 x2 )2 + + (y n xn )2 (1.55)

o lo que es lo mismo, el elemento diferencial de longitud (ds) esta dado (en n dimensiones) por
( )2 ( )2
(ds)2 = dx1 + dx2 + + (dxn )2 (1.56)

donde xi , y i son las proyecciones de x e y sobre n direcciones mutuamente perpendiculares. To-


mando n = 3 recuperamos las expresiones familiares, correspondientes al espacio R3 habitual.
El producto escalar que induce esta metrica es el producto escalar habitual, dado por

x y = x1 y 1 + x2 y 2 + + xn y n (1.57)

y corresponde al caso particular en el que el tensor metrico esta dado por la matriz identidad

gij = ij i, j, = 1, . . . , n (1.58)
1.3. ESPACIOS EUCLIDEOS Y DE RIEMANN 13

donde se define la delta de Kronecker en su version 2-covariante (ij ) como:


{
1 si i = j
ij = (1.59)
0 si i = j

Analogamente se define la delta de Kronecker en sus versiones 2-contravariante ( ij ) y 1-covariante


1-contravariante (ij ), respectivamente, como:
{
ij 1 si i = j
= (1.60)
0 j
si i =
{
1 si i = j
ji = (1.61)
0 j
si i =

En general se define como espacio Eucldeo a cualquier espacio Riemanniano en el que existe
al menos una base tal que el tensor metrico en esa base esta dado por la delta de Kronecker. Los
espacios Riemannianos en los que no existe ninguna base en la que gij sea la identidad se dicen no
Eucldeos. En general, dependiendo de la base que tomemos el tensor metrico puede dejar de ser la
identidad incluso si el espacio es Eucldeo (esto es lo que sucede si tomamos como base un conjunto
de vectores que no sean mutuamente ortogonales).

1.3.1. Bases ortonormales


En los espacios Eucldeos se definen las bases ortonormales como aquellas en las que el tensor
metrico es la identidad. Como puede verse, la propiedad que caracteriza a las bases ortonormales
es que todos los vectores de la base tienen longitud unidad (estan normalizados) y son mutuamente
perpendiculares
ei ej = ij ; i, j = 1, . . . , n (1.62)

Multiplicando escalarmente el desarrollo en componentes de un vector cualquiera (Ec. (1.17))


por ej y recordando las relaciones de ortogonalidad Ec. (1.62), encontramos que la componente xj
del vector x respecto de una base ortonormal esta dada por

xj = (ej , x) ; j = 1, . . . , n (1.63)

por tanto xj = x cos (siendo el angulo formado por x y ej ), es decir, xj es la proyeccion


ortogonal de x sobre la direccion definida por ej . En el caso de una base ortornormal las compo-
nentes de un vector estan, por tanto, dadas por las correspondientes proyecciones ortogonales del
vector sobre cada uno de los elementos de la base.

Metodo de ortonormalizacion de Gram-Schmidt

Dada una base cualquiera de un espacio Eucldeo, el metodo de ortonormalizacion de Gram-


Schmidt es un procedimiento muy sencillo que permite construir una base ortonormal a partir de la
base de partida. Supongamos que tenemos una base cualquiera dada por los vectores {t1 , t2 , . . . , tn },
14 CAPITULO 1. ESPACIOS VECTORIALES

siguiendo el metodo de ortonormalizacion de Gram-Schmidt definimos:


t1
e1 = ,
t1
t
t2 = t2 (e1 , t2 ) e1 , e2 = 2 ,
t2
t
t3 = t3 (e1 , t3 ) e1 (e2 , t3 ) e2 , e3 = 3 ,
t3
... ... ... ...

n1
tn
tn = tn (ei , tn ) ei , en = (1.64)
tn
i=1

De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno
de los tj su proyeccion sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j 1) y
posteriormente normalizando. Dejamos para los ejercicios la demostracion de que este procedimiento
genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales,
tambien son linealmente independientes, y como son combinacion lineal de los ti de partida y el
cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la
base de partida.

1.3.2. Espacios no Eucldeos: espacio dual y base dual


Segun hemos visto previamente, siempre es posible escribir un vector como combinacion lineal
de los vectores de una base cualquiera, independientemente de si el espacio es Eucldeo o no. Si el
espacio es Eucldeo y se emplea una base ortonormal las componentes de un vector estan dadas
por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la
base. En el caso general de un espacio vectorial no necesariamente Eucldeo como se definen las
componentes de un vector? Para responder esta pregunta es necesario introducir los conceptos de
espacio dual y base dual.
Dado el espacio vectorial E sobre el cuerpo de los reales, el conjunto de aplicaciones lineales
(a ) definidas sobre E con imagen en R

a : x a (x) R (1.65)

tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual E . En espacios de
dimension finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial
de partida. En este caso se deduce el teorema de Riesz-Frechet, segun el cual

dada la aplicacion lineal a del espacio dual E (a E ), existe un unico vector a del
espacio E (a E) tal que el resultado de aplicar a sobre x (denotado por a (x)) coincide
con el producto escalar a x

a E , !a E / a (x) = (a, x) = a x (1.66)

El teorema de Riesz-Frechet permite identificar, por medio de un isomorfismo, cada elemento


de un espacio vectorial con un elemento del espacio dual, de la manera que acabamos de indicar
(a (x) = (a, x)). Por su propia definicion esta claro que el isomorfismo que asocia la aplicacion
1.3. ESPACIOS EUCLIDEOS Y DE RIEMANN 15

lineal a de E con el vector a de E (y viceversa) depende del producto escalar que estemos
considerando en E, de modo que distintos productos escalares nos llevaran a asociar elementos
distintos.
Una vez definido el espacio dual E podemos considerar el espacio de las aplicaciones lineales
definidas sobre E , es decir, el dual del dual de E. En este caso se puede comprobar que el dual del
dual E es isomorfo al espacio de partida E, y que el isomorfismo que relaciona cada elemento de
E con uno de E es independiente de cual sea el producto escalar que estemos considerando en E,
motivo por el cual este isomorfismo se denomina isomorfismo canonico. Como resultado tenemos
que el espacio E coincide con el espacio de partida E, independientemente del producto escalar
considerado.
Volvamos ahora a la cuestion del calculo de las componentes de vectores en bases no ortonorma-
les. Dado un vector x de E y una base cualquiera {ei }ni=1 , la aplicacion que genera la componente xi
de x respecto de esta base es una aplicacion lineal, que llamaremos ei , de forma que la componente
xi de x esta dada por el resultado de aplicar ei sobre dicho vector

ei (x) = xi (1.67)

Como ei es una aplicacion lineal, ei pertenece al espacio dual E .


Como sabemos que la aplicacion que define cada componente i de un vector respecto a una
base arbitraria es, necesariamente, una aplicacion lineal?

A primera vista esta afirmacion podra parecer arbitraria, sin embargo es totalmente natural.
La aplicacion que genera las componentes de un vector respecto de una base cualquiera debe ser
una aplicacion continua y diferenciable. Esto es necesario si queremos que las componentes de
cualquier vector varen de forma continua y diferenciable al variar el vector de forma continua y
diferenciable. Tambien parece logico exigir que el vector nulo tenga todas sus componentes nulas,
independientemente de la base considerada. Por otra parte, tambien exigimos que las operaciones
de suma de vectores y multiplicacion por escalares puedan calcularse componente a componente en
cualquier base. El resultado de estas condiciones es que la aplicacion que produce la componente
del vector x respecto del elemento ei de cualquier base tiene que ser necesariamente una aplicacion
lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Frechet, para cada aplicacion
lineal ei E existe un unico vector ei E tal que xi = ei (x) esta dado sencillamente por el
producto escalar xi = ei x.
El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base
cualquiera {ei }ni=1 son linealmente independientes y forman, por tanto, una base del espacio dual,
llamada base dual, dada por {ei }ni=1 . Claramente la base dual cumple

ei (ej ) = (ei , ej ) = ji , i, j = 1, . . . , n (1.68)

independientemente de si la metrica de este espacio es Eucldea o no, e independientemente de si


la base {ei }ni=1 es ortogonal o no. Dado que el espacio dual es isomorfo al espacio de partida, la
base {ei }ni=1 del espacio dual tambien es base del espacio de partida.

Por que cumple la base dual la relacion ei (ej ) = ji ?

Segun hemos visto, dada una base {ei }ni=1 cualquier vector del espacio puede expresarse como
combinacion lineal de los elementos de la base. Los vectores de la base son vectores del espacio,
16 CAPITULO 1. ESPACIOS VECTORIALES

luego tambien pueden desarrollarse en terminos de la base. Consideremos el primero de los vectores
de la base (e1 ). Logicamente, el desarrollo de este vector en terminos de la base de la que forma
parte esta dado por el mismo vector: e1 , de modo que su coordenada respecto a e1 es la unidad
y sus coordenadas respecto a todos los vectores de la base restantes son nulas. Recordando que
ei (ej ) representa la componente i del vector j de la base {ei }ni=1 y repitiendo el razonamiento
anterior vemos que esta componente sera la unidad para i = j y nula i = j, de donde se deduce
la importante relacion ei (ej ) = ji . Dicha expresion nos permitira en el futuro calcular la base dual
a cualquier base dada, as como el desarrollo en componentes de cualquier vector del espacio.
Como consecuencia, en un espacio vectorial E (no necesariamente Eucldeo), dada una base
cualquiera ({ei }ni=1 ) existe otra base, llamada base dual ({ei }ni=1 ), tal que ei ej = ji . Proyectando
entonces el desarrollo en componentes de x (Ec. (1.17)) sobre la direccion ej de la base dual y
aplicando las relaciones Ec. (1.68), encontramos que la componente xi de x respecto de {ei }ni=1
esta dada por la proyeccion ortogonal de x sobre el vector ei de la base dual. En general la base dual
de una base dada cualquiera sera otra base distinta. En el caso particular de un espacio vectorial
Eucldeo, cuando se usa una base ortonormal se da la circunstancia excepcional de que la base dual
coincide con la base de partida. Normalmente esto no se cumplira, en el caso general la base dual
a una base dada sera diferente de la base dada. Mas adelante veremos como calcular cada una de
estas bases cuando se conoce la otra.
Dejamos para los ejercicios la demostracion de las siguientes propiedades importantes: la base
dual siempre existe y es unica; si {ei }ni=1 es la base dual de {ei }ni=1 , entonces {ei }ni=1 es la base
dual de {ei }ni=1 (es decir, el dual del dual nos devuelve a la base de partida).
Normalmente emplearemos subndices para numerar los vectores de la base de partida, y su-
perndices para numerar los vectores de la base dual. Como ya se ha mencionado, el uso de sub-
y super-ndices no es arbitrario, sino que corresponde a los comportamientos co- y contra-variante
de estos objetos al aplicar un cambio de base, tal y como veremos a continuacion.

Tensor metrico: relacion entre una base y su dual


Aplicando que el espacio dual es isomorfo al espacio de partida hemos identificado los vectores
de la base dual con vectores del espacio de partida, en el sentido del teorema de Riesz-Frechet (Ec
(1.66)). Dado que son vectores del mismo espacio, entonces podemos escribir los vectores de la base
dual como combinacion lineal de los vectores de la base, escribimos esta combinacion lineal como

ei = g ij ej (1.69)

Nos queda por determinar cuales son las componentes de este objeto g ij . Para ello basta con
sustituir en la propiedad que define a la base dual (Ec. (1.68)), de donde deducimos

g ik gkj = ji (1.70)

por tanto la matriz g ij es sencillamente la inversa del tensor metrico gij (recordar que en espacios
Riemannianos el tensor metrico siempre es invertible det gij = 0). Por tanto, la inversa del tensor
metrico aplicada sobre la base de partida nos genera la base dual. Esta relacion nos indica de forma
trivial que en el caso de un espacio Eucldeo, la base dual de una base ortonormal coincide con ella
misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.69)) en ei ej es inmediato demostrar
que
ei ej = g ij , i, j = 1, . . . , n (1.71)
1.4. CAMBIOS DE BASE 17

por tanto la inversa del tensor metrico nos proporciona la tabla de productos escalares de los
vectores de la base dual. En otras palabras, el objeto g ij es el tensor metrico de la base dual, o
tensor metrico dual.
Por ultimo, dado que son vectores del mismo espacio tambien podemos escribir los vectores
de la base de partida como combinacion lineal de la base dual. En este sentido dejamos para los
ejercicios demostrar que el tensor metrico aplicado sobre la base dual nos genera la base de partida

ei = gij ej (1.72)

Matriz correspondiente a una aplicacion lineal


Una vez hemos visto como se calculan las componentes de un vector en el caso general (respecto
de una base cualquiera en un espacio no necesariamente Eucldeo)
( )
x = ei , x ei = x i ei (1.73)

veamos ahora como se calculan las componentes de una aplicacion lineal A, que transforma vectores
de E en vectores de E:
A : x A(x) = y E (1.74)
Escribiendo los vectores x e y en componentes encontramos
( )
A x j ej = y k ek (1.75)

multiplicando escalarmente por ei por la izquierda y recordando que la aplicacion A es lineal


encontramos ( i )
e A(ej ) xj = y i (1.76)
donde identificamos ei A(ej ) como la componente i del vector que resulta de aplicar A sobre ej . Si
definimos esto como la componente Aij de la aplicacion A respecto de la base {ei }ni=1 , encontramos
que la aplicacion de A sobre x puede ponerse en componentes como

Aij xj = y i (1.77)

es decir, como el producto de la matriz Aij por el vector columna xj . Por tanto, dada una aplicacion
lineal A y una base cualquiera {ei }ni=1 (no necesariamente ortonormal), la matriz Aij correspondiente
a esta aplicacion esta dada por ( )
Aij ei , A(ej ) (1.78)
donde el super-ndice i recorre las filas y el sub-ndice j las columnas de la matriz Aij . En el caso
en que el espacio E sea Eucldeo y la base {ei }ni=1 sea ortonormal (y solo en ese caso) tendremos
que ei = ei , en un caso general ei estara dado por el correspondiente vector de la base dual.

1.4. Cambios de base


El metodo de ortonormalizacion de Gram-Schmidt nos proporciona el primer ejemplo de cambio
de base. En general, cuando se aplica un cambio de base sobre un espacio vectorial esta claro que los
vectores y las aplicaciones lineales definidas sobre estos vectores no cambian, es decir, permanecen
invariantes bajo el cambio de base. Por el contrario, las componentes de estos vectores y aplicaciones
lineales respecto a una base concreta s cambian al cambiar los vectores de la base. Precisamente, la
18 CAPITULO 1. ESPACIOS VECTORIALES

ley de transformacion que siguen las componentes de un vector se deduce al imponer que el vector
es el mismo independientemente de cual sea la base a la que esten referidas sus componentes

x = xi ei = xi ei (1.79)

1.4.1. Definicion de cambio de base


Dado un espacio vectorial E y dos bases, la base antigua {e1 , . . . , en } y la base nueva
{e1 , . . . , en }, se define como cambio de base a la aplicacion lineal e invertible C, tal que al aplicarla
sobre la base antigua genera la base nueva y viceversa.

ei = C(ei ), ei = C 1 (ei ) (1.80)

Para ver que forma tiene la aplicacion de cambio de base C recordamos que los vectores de la
base nueva pertenecen a E, por tanto pueden ponerse como combinacion lineal de los vectores de
la base antigua
ei = eji ej (1.81)
donde se aplica el convenio de suma de Einstein para el ndice mudo j. En la anterior expresion
hemos denominado eji a la componente contravariante j del vector ei de la base nueva, expresado
en terminos de la base antigua. Segun hemos visto en el apartado precedente, estas componentes
estan dadas por el producto escalar de ei por el correspondiente vector de la base dual antigua ej
( ) ( )
eji = ej , ei = ej , C(ei ) = Cij (1.82)

Sustituyendo en ec. (1.81), escribimos esta relacion en la forma siguiente

ei = Cij ej , i = 1, . . . , n (1.83)

Esto nos indica que la aplicacion cambio de base esta descrita por una matriz con componentes Cij ,
dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Si escribimos las
componentes contravariantes como vectores columna, tal y como es habitual, entonces encontramos
que la matriz del cambio de base esta formada por las componentes de los vectores de la base nueva
respecto a la base antigua, escritos como vectores columna
( )
C = e1 e2 . . . en (1.84)

Cuando se hace un cambio de base, para que la base nueva sea una base valida es necesario
que sus vectores sean linealmente independientes, lo cual queda garantizado si el determinante
de la matriz del cambio de base es distinto de cero (en caso contrario el cambio de base no es
valido). Suponiendo entonces que det C = 0 tenemos que la matriz del cambio C es invertible. Para
simplificar las expresiones definimos la matriz D como la inversa de C

D C 1 , Dki Cjk = Cki Djk = ji (1.85)

Aplicando el cambio inverso D sobre la relacion Ec. (1.83) encontramos directamente

ei = Dij ej , i = 1, . . . , n (1.86)

que nos proporciona la expresion de los vectores de la base antigua como combinacion lineal de la
base nueva.
1.4. CAMBIOS DE BASE 19

Ley de transformacion de la base dual


Por medio del cambio de base C (Ec. 1.80) pasamos a la nueva base {ei }ni=1 , cuya base dual
{ei }ni=1
cumple por definicion
ei ej = ji (1.87)
de donde se deduce directamente que la base dual se transforma con la matriz inversa a la matriz
del cambio de base
ei = Dji ej (1.88)
Para verlo basta con escribir ei como combinacion lineal de la base dual antigua, sustituir en Ec.
(1.87) y aplicar la propiedades de linealidad del producto escalar (los detalles se dejan para los
ejercicios). A partir de esta relacion (Ec. (1.88)) es trivial verificar

ei = Cji ej (1.89)

que nos proporciona los vectores de la base dual antigua como combinacion lineal de los vectores
de la base dual nueva.

Comportamiento covariante y contravariante


Segun hemos visto, al aplicar un cambio de base los vectores de la base se transforman con la
matriz del cambio de base (C) y los vectores de la base dual se transforman con la matriz inversa
del cambio de base (D). Estos dos tipos de comportamiento se denominan respectivamente como
covariante y contravariante

vectores de la base ei : comportamiento covariante ei = Cij ej


vectores de la base dual ei : comportamiento contravariante ei = Dji ej

En general emplearemos superndices para denotar objetos con comportamiento contravariante y


subndices para los objetos con comportamiento covariante

1.4.2. Cambios de base sobre vectores


Un vector cualquiera puede expresarse indistintamente en terminos de cualquier base (Ec.
(1.79)) Que relacion existe entre las componentes de x en ambas bases? Sustituyendo la expresion
de los vectores de la base antigua en terminos de la nueva (Ec. (1.86)) en Ec. (1.79), e identificando
componente a componente, deducimos
xi = Dji xj (1.90)
Por tanto, las componentes de un vector respecto de una base cualquiera tienen comportamiento
contravariante. A partir de esta relacion es inmediato demostrar la relacion inversa xi = Cji xj , lo
cual se deja para los ejercicios.
Por otra parte, dado que la base dual tambien es una base valida del espacio vectorial, podemos
expresar cualquier vector del espacio por medio de sus componentes respecto a la base dual (antigua
o nueva)
x = xi ei = xi ei (1.91)
Por medio de la ley de transformacion de los vectores de la base dual (Ecs. (1.88) y (1.89)) es muy
facil comprobar que las componentes de x respecto a la base dual se transforman segun

xi = Cij xj , xi = Dij xj (1.92)


20 CAPITULO 1. ESPACIOS VECTORIALES

Las componentes de un vector respecto de una base cualquiera tienen compontamiento contra-
variante y se denominan componentes contravariantes, mientras que las componentes respecto a la
base dual de una base dada tienen comportamiento covariante, y se denominan componentes cova-
riantes. En general las componentes co- y contra-variantes son distintas. En el caso particular de
un espacio Eucldeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes
de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distincion entre
ellas. En el contexto del calculo tensorial tendremos siempre en mente el caso general de un espacio
vectorial no necesariamente Eucldeo, por tanto es fundamental no confundir las componentes de
uno y otro tipo.
La relacion existente entre los vectores de la base de partida y la base dual y viceversa (Ecs.
(1.69) y (1.72)) nos permiten calcular las componentes co-variantes de un vector a partir de sus
componentes contravariantes relativas a cualquier base (y viceversa). El resultado es
xi = gij xj , xi = g ij xj (1.93)
(dejamos la demostracion para los ejercicios) que ilustra la conocida propiedad de subida y bajada
de ndices por medio del tensor metrico y su inversa, que emplearemos con mucha frecuencia a lo
largo del curso.
Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguien-
te: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto
escalar x y puede calcularse indistintamente segun cualquiera de las expresiones siguientes
x y = gij xi y j = g ij xi yj = xi yi = xi y i (1.94)
Observese que las dos ultimas expresiones son analogas a la que encontraramos al usar una base
ortonormal en el caso de una espacio vectorial Eucldeo, sin embargo x y = xi yi = xi y i es correcto
independientemente de cual sea la base y de si el espacio es o no Eucldeo.

1.4.3. Cambios de base sobre aplicaciones lineales


Analogamente a como hemos hecho con el caso de los vectores, imponiendo que las aplicaciones
lineales permanecen invariantes al aplicar un cambio de base podemos deducir como se transforman
las componentes de estas aplicaciones lineales respecto de una base cualquiera bajo un cambio de
base. Si la imagen de un vector x al aplicar la aplicacion lineal A es Ax = y, la expresion en
componentes de esta igualdad debe cumplirse independientemente de cual sea la base empleada
Aij xj = y i , Aij xj = y i (1.95)

donde Aij , xj e y i son las componentes de A, x e y respecto a la base antigua ei y Aij , xj e y i son las
componentes respecto a la base nueva ei , definida por medio del cambio Ec. (1.83). Sustituyendo la
ley de transformacion de las componentes de un vector (Ec. (1.90)) es inmediato deducir la relacion
que todos conocemos
Aij = Dki Akl Cjl , Aij = Cki Akl Djl (1.96)
Tambien podemos llegar al mismo resultado sustituyendo la ley de transformacion de los vectores
de la base (de partida y dual) en la expresion analoga a Ec. (1.78) pero en terminos de la base
nueva, es decir ( )
Aij ei , A(ej ) (1.97)
Por tanto, vemos que la matriz correspondiente a una aplicacion lineal es un objeto 1-covariante
1-contravariante, ya que tiene un ndice de cada tipo.
1.4. CAMBIOS DE BASE 21

1.4.4. Ley de transformacion del tensor metrico


Dada una base cualquiera y su dual se define el tensor metrico gij y su inverso de acuerdo a
las relaciones Ec. (1.49) y Ec. (1.71) respectivamente. Por tanto, en terminos de la base nueva y su
dual tenemos las relaciones
gij = ei ej , g ij = ei ej (1.98)
Aplicando las leyes de transformacion de ei y ei deducimos que el tensor metrico en terminos de
la nueva base esta dado por

gij = Cik Cjl gkl , gij = Dik Djl gkl (1.99)

mientras que para el tensor metrico de la base dual encontramos

g ij = Dki Dlj g kl , g ij = Cki Clj g kl (1.100)

Este resultado indica que gij es un objeto 2-covariante, ya que se transforma aplicando 2 veces
la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de
la matriz del cambio.

Expresion matricial de operaciones tensoriales


Similarmente a como sucede para la ley de transformacion de vectores (p. ej., para las componen-
tes contravariantes [x] = [D][x]), la ley de transformacion que hemos encontrado para aplicaciones li-
neales (Aij = Dki Akl Cjl ) puede escribirse directamente como un producto matricial ([A] = [D][A][C]).
Sin embargo el producto Cik Cjl gkl no coincide con el producto matricial [C][C][g], ni tampoco con
[C][g][C]. Recordando que en Cik el ndice k recorre las filas e i las columnas, si asignamos el
primer ndice de gkl a las filas y el segundo a las columnas vemos que la expresion matricial de
gij = Cik Cjl gkl estara dada por [g] = [C]T [g][C], donde [C]T es la traspuesta de la matriz [C].
Por tanto la ley de transformacion de gij es distinta de la ley de transformacion que cumplen las
matrices, a pesar de que ambos son objetos tensoriales de orden 2.
Como veremos en este curso, el algebra tensorial generaliza al algebra matricial, de forma que
hay expresiones tensoriales cuya transcripcion en terminos de matrices es difcil, o incluso imposible.
Por este motivo, al trabajar con tensores lo normal es escribir todos los productos en componentes,
y no se insiste en la transcripcion en terminos de matrices de estos productos, ni siquiera en aquellos
casos en los que la transcripcion matricial es posible.

Ley de transformacion de productos escalares


Por ultimo, es muy facil comprobar que el producto escalar de dos vectores es, efectivamente, un
escalar, es decir, un invariante bajo cambios de base. Independientemente de la base que estemos
empleando el producto escalar x y se define como gij xi y j . Sustituyendo la ley de transformacion
de gij , xi e y j es muy facil comprobar que el comportamiento 2-covariante de gij cancela los
comportamientos 1-contravariante de xi e y j , de forma que el resultado final es invariante bajo
cambios de base, es decir, el producto escalar de dos vectores es un escalar.
Tambien es un escalar la traza de las aplicaciones lineales, definida como la suma de los elementos
de la diagonal, trA Aii , en cualquier base. Aplicando la ley de transformacion de las aplicaciones
lineales (Ec. (1.96)) se comprueba que, al tomar la traza, el comportamiento contravariante del
superndice se cancela con el comportamiento covariante del subndice, de forma que el resultado
final es el mismo independientemente de que base estemos empleando.
22 CAPITULO 1. ESPACIOS VECTORIALES

Transformaciones ortogonales
A lo largo de este curso veremos con mucha frecuencia como se comportan las componentes
de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base
totalmente generales, descritos por la matriz del cambio C (Ec. (1.84)) y su correspondiente in-
versa D C 1 (Ec. (1.85)). En un cambio de base general la matriz inversa D no coincide con la
traspuesta C 1 = C T , la excepcion a esta regla esta dada por las conocidas transformaciones orto-
gonales en espacios Eucldeos. Para evitar confusiones en este sentido, vamos a ver a continuacion
que tipo de transformaciones cumplen la relacion excepcional C 1 = C T .
Se denomina transformacion unitaria (U ) a cualquier aplicacion que preserva los productos
escalares para todo par de vectores x e y pertenecientes a un espacio vectorial E

x, y E, (U (x), U (y)) = (x, y) (1.101)

Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transfor-
maciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales.
Aplicando la relacion que define las transformaciones unitarias (Ec. (1.101)) puede demostrarse
facilmente que en un espacio vectorial Eucldeo la matriz de una transformacion unitaria respecto
de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple:
( )i
U 1 = U , U 1
T j
en componentes j
= Ui (1.102)

T
donde U se denomina matriz adjunta de U y esta dada por la traspuesta del complejo conjugado
de U . Si el espacio E esta definido sobre el cuerpo de los reales, entonces la anterior relacion se
simplifica a
( 1 )i
U 1 = U T , en componentes U j
= Uij (1.103)
Este es el unico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la
relacion Ec. (1.103) se denominan matrices ortogonales.
Por su propia definicion, esta claro que en un espacio vectorial Eucldeo las aplicaciones unitarias
transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de
transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C
coincide con C T solo si la base nueva es el resultado de aplicar una transformacion ortogonal sobre
la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes
operaciones:

rotaciones (rotacion de los vectores de la base un cierto angulo respecto a un eje dado que
pase por el origen),

inversiones (reflexion de los vectores de la base segun un determinado plano que pase por el
origen),

permutaciones (intercambio de dos vectores de la base antigua),

cualquier combinacion de las anteriores.

Si el cambio de base C es ortogonal entonces det(C) = 1. Los cambios de base con det(C) = +1
corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base,
mientras que los cambios con det(C) = 1 corresponden a inversiones o a permutaciones con
paridad negativa.
1.5. PROBLEMAS 23

En la practica los cambios de base ortogonales se emplean con muchsima frecuencia, pero no
son los unicos posibles. Por ejemplo, el cambio de la base canonica de R3 , {i, j, k}, a la base dada
por {2i, 2j, 2k} (que sigue siendo una base ortogonal pero no ortonormal), no es un cambio de base
ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no
ortogonales.

1.4.5. Resumen
En este apartado hemos visto las leyes de transformacion de los 3 tipos de tensores mas habitua-
les: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2 (aplicaciones
lineales y tensor metrico); y los 2 tipos de comportamiento posibles bajo cambios de base: covarian-
te y contravariante. Los resultados obtenidos son validos para un espacio vectorial de dimension
finita arbitraria n, dotado de una metrica de Riemann no necesariamente Eucldea. La siguiente
tabla (C. 1.1) resume los tipos de tensores que hemos visto hasta ahora y su comportamiento bajo
cambios de base:

Tensores de orden 2
orden tipo ley de transformacion
0 escalares invariantes
vector contravariante xi = Dji xj
1
vector covariante xi = Cij xj
aplicaciones lineales Aij = Dki Cjl Akl
2 tensor metrico gij = Cik Cjl gkl
tensor metrico dual g ij = Dki Dlj g kl

Cuadro 1.1: Comportamiento de tensores de orden 2 bajo cambios de base (ei = Cij ej ,
D C 1 ).

En los captulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden
r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operacio-
nes de calculo (derivacion e integracion) con campos tensoriales de orden arbitrario. Por tanto es
fundamental comprender bien todos los conceptos introducidos en este captulo.

1.5. Problemas
P.1.1. Demostrar que para cualquier pareja de vectores x, y E existe un unico z E tal que

x=y+z

P.1.2. Dado un vector cualquiera x E, demostrar la relacion

0x = 0
24 CAPITULO 1. ESPACIOS VECTORIALES

P.1.3. Dado un vector cualquiera x E, demostrar la relacion

(1) x = (x)

P.1.4. Demostrar que la envolvente lineal de cualquier conjunto de vectores {e1 , . . . , ep } E (con
p n, siendo n la dimension de E) es un espacio vectorial.

P.1.5. Demostrar que si e1 y e2 son linealmente independientes, entonces la interseccion de las


envolventes lineales de estos vectores se reduce a 0.

P.1.6. Dado un vector cualquiera x E y una base {e1 , . . . , en } de E, demostrar que la descompo-
sicion de x como combinacion lineal de la base (Ec. (1.17)) es unica.

P.1.7. Dados los subespacios vectoriales independientes E1 y E2 , demostrar que la descomposicion


de un vector x E1 E2 como x = x1 + x2 , donde x1 E1 y x2 E2 , es unica.

P.1.8. Dados los subespacios vectoriales independientes E1 y E2 con dimensiones n1 y n2 , demostrar


que la dimension del espacio suma directa E1 E2 es n1 + n2 .

P.1.9. Demostrar que Eq. (1.37) implica que

x1 , x2 , x3 E, (x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 )

P.1.10. Dado el espacio vectorial E definido sobre el cuerpo de los numeros complejos C, demostrar
que x E el producto escalar x x es real (para cualquier producto escalar).

P.1.11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x y = 0
y = 0, entonces x = 0.

P.1.12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente
independientes.

P.1.13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser
ortogonales.

P.1.14. Demostrar que el metodo de ortonormalizacion de Gram-Schmidt genera una base ortonormal.

P.1.15. Demostrar que la base dual siempre existe y es unica.

P.1.16. Demostrar que la base dual del dual de una base cualquiera esta dado por la base de partida.

P.1.17. Demostrar las ecuaciones Ecs. (1.69, 1.70 y 1.72) que relacionan la base dual con la base de
partida.

P.1.18. Demostrar que la inversa del tensor metrico esta dada por Ec. (1.71).

P.1.19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec.
(1.88)).

P.1.20. Deducir la ley de transformacion que cumplen las componentes de un vector bajo el cambio
de base C:
xi = Dji xj , xi = Cji xj
donde D C 1 .
1.5. PROBLEMAS 25

P.1.21. Deducir la ley de transformacion que cumplen las componentes de un vector respecto a la
base dual bajo el cambio de base C, dada por Ec. (1.92).

P.1.22. Deducir la relacion entre las componentes co- y contra-variantes de un vector, dada por Ec.
(1.93).

P.1.23. Demostrar la relacion Ec. (1.94).

P.1.24. Demostrar la relacion Ec. (1.96).

P.1.25. Demostrar las relaciones Ec. (1.99) y Ec. (1.100).

P.1.26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto inva-
riante bajo cambios de base).

P.1.27. Demostrar que la traza de cualquier aplicacion lineal es un escalar.

P.1.28. Demostrar que la matriz correspondiente a una transformacion unitaria, respecto de una base
T
ortonormal, cumple U 1 = U .

P.1.29. Demostrar que la matriz correspondiente a una transformacion ortogonal, respecto de una
base ortonormal, cumple U 1 = U T .

P.1.30. Dado el cambio de base no ortogonal (pero extremadamente sencillo) que pasa de la base
{i, j, k} de R3 (con metrica Eucldea) a {2i, 2j, 2k}, calcule la matriz del cambio de base y
su inversa, calcule como cambia la base dual y como cambian las componentes de un vector
contravariante y uno covariante.

P.1.31. Repita el ejercicio anterior considerando un tensor metrico arbitrario. Calcule tambien como
cambian las componentes del tensor metrico y del tensor metrico dual.

1.5.1. Soluciones a problemas seleccionados (Tema 1)


P.1.19. Partimos de la relacion que define la base dual, aplicada a la base nueva ei ej = ji . Introdu-
cimos ahora la relacion entre la base nueva y la vieja ei = Cij ej , y una transformacion lineal
a determinar (T ) para la relacion entre la base dual nueva y la antigua ei = Tji ej :
( )
Tpi ep , Cjq eq = ji

Aplicando que el producto escalar es hermtico y lineal en el segundo argumento deducimos

Tpi Cjq (ep , eq ) = ji

es decir
Tki Cjk = ji

Por tanto la matriz Tji es la compleja conjugada de la inversa de [C]: Tji = Dji . La ecuacion
(1.88) es valida para el caso de un espacio vectorial definido sobre el cuerpo de los numeros
reales, que es el caso considerado en este curso (salvo que se diga lo contrario).
En este curso hemos tomado como hipotesis que se trabaja con un campo vectorial definido
sobre el cuerpo de los numeros reales, tal y como se afirma en la seccion 1.2.3, inmediatamente
26 CAPITULO 1. ESPACIOS VECTORIALES

antes de definir el tensor metrico gij = ei ej . Esto es muy importante dado que en los apuntes
se emplea constantemente la relacion de simetra gij = gji , que solo es valida para espacios
vectoriales reales. En el caso de un espacio vectorial complejo la relacion anterior se re-escribe
como gij = gji , y en consecuencia muchas de las relaciones mostradas en los apuntes cambian.
Por ejemplo, en el caso de un espacio vectorial complejo las componentes contravariantes de
un vector cambian de acuerdo a v i = Dji v j (igual que en el caso real), pero las componentes
co-variantes cambian con la compleja conjugada de la matriz del cambio: vi = Cij vj .

P.1.30. La base de partida en este caso es la base canonica de R3 :



1 0 0


i = 0 ; j = 1 ; k = 0

0 0 1

La base nueva es sencillamente 2i, 2j, 2k. Vamos a considerar un caso ligeramente mas
general, de modo que en lugar de los factores 2, vamos a suponer un cambio de base en
el que cada vector de la base de partida se multiplica por un factor cualquiera (a, b y c
respectivamente), de modo que la base nueva es:

a 0 0


ai = 0 ; bj = b ; ck = 0

0 0 c

Por supuesto suponemos que ninguno de estos factores puede ser nulo (por que es necesario
imponer esto?), y para recuperar el problema propuesto basta con hacer a = b = c = 2.
La matriz del cambio de base (C) esta dada por los vectores de la base nueva puestos como
vectores columna, por tanto
a 0 0


C = 0 b 0

0 0 c

Como la matriz del cambio es diagonal, es trivial calcular la inversa (D C 1 )



a1 0 0


D = 0 b1 0

0 0 c1

El problema pide calcular como cambian la base de partida y su dual bajo este cambio de base.
En primer lugar, la base de partida {i, j, k} se convierte al aplicar el cambio en {ai, bj, ck}.
El dual de la base de partida es ella misma (ya que se trata de una { 1base ortonormal
} en un
1
espacio Eucldeo), y al aplicar el cambio de base se transforma en a i, b j, c k .1

Por otra parte nos piden calcular como cambian las componentes de los vectores. Las com-
ponentes co- y contra-variantes de cualquier vector en la base de partida coinciden (ya que
1.6. BIBLIOGRAFIA 27

la base de partida coincide con su dual), pero esto ya no va a suceder en la base nueva. Dado
el vector r = xi + yj + zk en la base de partida, las componentes contravariantes de este
vector (inicialmente x, y, z) pasan a ser en la nueva base a1 x, b1 y, c1 z, Logicamente,
si multiplicamos por un factor a la longitud del vector base en la direccion del eje X, las
coordenadas respecto de este vector se multiplican por a1 , y analogamente con las otras
coordenadas. Este ejemplo es especialmente simple, ya que al ser el cambio diagonal, no se
mezclan unas coordenadas con otras. En cuanto a las componentes co-variantes, inicialmente
tambien x, y, z, al realizar el cambio estas componentes pasan a ser ax, by, cz.
Aunque el enunciado no lo pide, podemos calcular tambien como cambia el tensor metrico y el
tensor metrico dual. El tensor metrico de partida es la identidad en 3 dimensiones, y coincide
con su dual. En la nueva base el tensor metrico sigue siendo diagonal, pero los coeficientes de
la diagonal principal ya no son 1, sino que estan dados por

g11 = a2 ; g22 = b2 ; g33 = c2

En cuanto al tensor metrico dual, en la nueva base sigue siendo diagonal, y los elementos de
la diagonal principal pasan a estar dados por:

g 11 = a2 ; g 22 = b2 ; g 33 = c2

P.1.31. Consideramos el mismo cambio que en el ejercicio anterior, pero ahora con una metrica ar-
bitraria. Las matrices C y D son las calculadas en el ejercicio anterior. La base de partida es
{e1 , e2 , e3 } y al aplicar el cambio se convierte en {ae1 , be2 , ce3 } (vamos a reservar los tradi-
cionales i, j y k para el caso Eucldeo). El problema pide considerar una metrica arbitraria,
de modo que suponemos conocido el tensor metrico de partida gij y tambien su inverso g ij .
Con esto sabemos que la base dual a la base de partida esta dada por

ei = g ij ej

pero mientras no se especifique una metrica concreta no se puede dar mas detalle sobre los
ei .
El tensor metrico en la nueva base queda dado por gij = i j gij (sin suma ni en i ni en j),
donde hemos definido 1 = a, 2 = b, 3 = c. En cuanto al inverso del tensor metrico en la
nueva base, encontramos g ij = 1 1 ij
i j g (sin suma ni en i ni en j).

1.6. Bibliografa
Para los apuntes de este captulo se ha consultado el texto de Burgos [3], junto con [8] y los
textos clasicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].
Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro
de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].
28 CAPITULO 1. ESPACIOS VECTORIALES
Captulo 2

Tensores

En el apartado anterior hemos visto los tres tipos basicos de tensores: escalares, vectores y
aplicaciones lineales, y sus correspondientes reglas de transformacion bajo cambios de base. En
este apartado estudiaremos el concepto de tensor general de rango arbitrario y veremos algunos
ejemplos concretos de tensores empleados en fsica. Por ultimo veremos una introduccion al algebra
tensorial, incluyendo productos tensoriales y productos de contraccion, algunos criterios practicos
de tensorialidad y ciertos tipos especiales de tensores.

2.1. Concepto de tensor


El estudio de los tensores aparece de manera natural al aplicar cambios de base en espacios
vectoriales. De todos los objetos matematicos que pueden definirse sobre un espacio vectorial se
denominan tensores a aquellos que son invariantes bajo cambios de base. Normalmente describimos
los objetos tensoriales mediante sus coordenadas (o componentes) respecto de una determinada
base, e imponiendo la condicion de invariancia del tensor frente a cambios de base deducimos la ley
de transformacion que cumplen las componentes del tensor cuando se realiza un cambio de base
en el espacio. Esta es la regla que hemos aplicado en el captulo anterior para deducir las leyes de
transformacion de las componentes de tensores de orden bajo, y su generalizacion a tensores de
orden arbitrario es inmediata.
Dado que la eleccion de una base en particular es totalmente arbitraria, desde el punto de
vista tensorial solo estan bien definidos aquellos objetos que son invariantes bajo cambios de base.
No obstante, en el captulo proximo generalizaremos ligeramente este concepto al estudiar las
densidades tensoriales. Los tensores son, por tanto, objetos geometricos definidos en un espacio
vectorial, de tal forma que su definicion y propiedades no dependen de la base empleada, aunque
s los valores de sus componentes, que pueden interpretarse como el aspecto del tensor desde el
sistema de referencia definido por la base que estemos empleando.

Aclaracion
Cuando uno habla de vectores es frecuente denominar vector tanto al propio vector (p. ej.
v = v 1 i + v 2 j + v 3 k { R3 ) como
} al conjunto de coordenadas que{lo1 describen
} respecto a una
1 2 3 2 3
base concreta (p. ej. v , v , v ). Por tanto, es normal referirse a v , v , v como un vector
contravariante o simplemente un vector. La diferencia entre el (verdadero) vector v y el conjunto
de componentes que lo describe respecto de una base dada es que v es invariante bajo cambios de

29
30 CAPITULO 2. TENSORES

base (el vector sigue siendo el mismo, independientemente de la base del espacio que decidamos
emplear para describirlo), mientras que sus componentes dependen de la base empleada, y cambian
bajo un cambio de base segun las leyes que hemos visto en el captulo anterior. Aunque posiblemente
este abuso del lenguaje incurra en cierta incorreccion, se admite ya que simplifica enormemente la
comunicacion.
Con tensores de rango general sucede exactamente lo mismo: en el lenguaje coloquial se deno-
mina con frecuencia tensor tanto al verdadero objeto tensorial (objeto geometrico invariante bajo
cambios de base), como al conjunto de coordenadas que lo describen en una base concreta, que
se transforma bajo cambios de base de acuerdo a la correspondiente ley de transformacion tenso-
rial. Normalmente por el contexto quedara claro si nos estamos refiriendo al verdadero tensor o al
correspondiente conjunto de coordenadas que lo describen respecto a una determinada base.

2.1.1. Tensores en fsica

Los tensores se emplean en fsica teorica con muchsima frecuencia, especialmente en relatividad,
electromagnetismo y en general en cualquier teora de campos, pero tambien se emplean mucho en
diversas areas de la fsica de interes en ingeniera, como mecanica de medios continuos (resistencia
de materiales, elasticidad) y mecanica de fluidos. El motivo es muy sencillo. Las magnitudes que
se emplean en fsica describen propiedades reales (objetivas) del mundo fsico, como por ejemplo la
masa de un objeto, su posicion, su velocidad, las fuerzas a que esta sometido, etc. Para describir
muchas de estas propiedades es necesario emplear algun sistema de referencia, cuya eleccion es
totalmente arbitraria. Sea cual sea el sistema de referencia que decidamos emplear, las propiedades
fsicas que pretendemos describir son las mismas, no dependen del sistema de referencia escogido.
Supongamos por ejemplo una situacion en la que muchos observadores estan estudiando el mismo
sistema fsico, empleando para ello varios sistemas de referencia distintos. Aunque cada uno de
ellos emplee un sistema de referencia diferente, todos ellos estan describiendo la misma realidad
fsica, de modo que todas estas descripciones deben ser coherentes entre s. Ademas debe ser posible
traducir los resultados de un observador de forma que los otros puedan verificarlos, lo cual implica
que existen reglas objetivas bien definidas que permiten transformar las observaciones realizadas
desde un sistema de referencia a otros sistemas.
El calculo tensorial es un metodo sistematico para trabajar con objetos geometricos de manera
independiente al sistema de referencia que se este empleando, de tal forma que si una relacion
tensorial es correcta en un determinado sistema de coordenadas, entonces tambien lo es en cual-
quiera otro. Esto hace que los tensores sean objetos matematicos adecuados para la descripcion
de propiedades y leyes fsicas. De hecho, las magnitudes fsicas se caracterizan por tener compor-
tamiento tensorial bien definido, y las leyes fsicas pueden expresarse como ecuaciones tensoriales.
Muchas magnitudes fsicas son tensores como los que veremos en este captulo; otras, denominadas
densidades tensoriales (a veces pseudotensores o tensores relativos), son objetos geometricos que
cumplen leyes de transformacion iguales a las tensoriales, pero con un factor de escala adicional
(dado por una determinada potencia del determinante de la matriz de cambio de base), tal y como
tendremos ocasion de ver en el captulo siguiente.
Previamente ya hemos mencionado varios ejemplos de propiedades fsicas escalares y vectoriales,
a continuacion veremos algunos ejemplos de magnitudes fsicas de rango tensorial superior.
2.1. CONCEPTO DE TENSOR 31

2.1.2. Rango tensorial


Los tensores generalizan los conceptos y leyes de transformacion familiares de escalares, vecto-
res y aplicaciones lineales a objetos de orden superior, para cuya descripcion es necesario emplear
un numero mayor de ndices. Segun hemos visto, las aplicaciones lineales y el tensor metrico son
tensores de orden 2, ya que para su descripcion completa es necesario especificar un numero de
componentes que depende de 2 ndices; los vectores son tensores de orden 1, ya que para su descrip-
cion completa basta con una familia de componentes que depende solo de un ndice; y los escalares
son tensores de orden 0 ya que sus componentes quedan descritas por un unico numero (0 ndices).
En general, dado un tensor se denomina rango tensorial u orden del tensor a la dimension
del conjunto de coordenadas que es necesario especificar para la descripcion completa del tensor
respecto a una base cualquiera del espacio vectorial. Es decir, el numero de ndices que necesitamos
para describir todas las componentes del tensor.
Si la dimension del espacio vectorial en consideracion es n, entonces el numero de grados de
libertad de un tensor de rango tensorial t (el numero de componentes) es nt . De todas formas, en
muchos casos sucede que los tensores tienen cierta simetra, de modo que no todas las nt com-
ponentes son independientes. Por ejemplo, el tensor metrico tiene n2 componentes, pero como es
simetrico (gij = gji ), solo hay n + n(n 1)/2 independientes (que corresponden, p. ej., a la diagonal
principal y la parte triangular superior de gij ). Otro caso muy habitual es el de un tensor anti-
simetrico ij = ji , en ese caso sabemos que las n componentes de la diagonal son necesariamente
nulas (ii = 0, sin suma en i), y de las restantes solo hay n(n 1)/2 independientes.

2.1.3. Ley de transformacion de tensores generales


En el apartado anterior hemos visto que, bajo un cambio de base, las componentes de vectores
y aplicaciones lineales se transforman o bien con la matriz del cambio de base (comportamiento
covariante) o bien con su inversa (comportamiento contravariante). Generalizando este concepto a
tensores de orden arbitrario, se denomina tensor de orden r-covariante s-contravariante a un objeto
tensorial (T ) de orden r + s, con nr+s componentes Tji11 ji22 ...
... is
jr , tales que bajo el cambio de base C
1
(con inversa D C ) se transforman segun la ley
p1 p2 pr
Tji11 ji22 ...
... is i1 i2 is q1 q2 ... qs
jr = Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr (2.1)
| {z } | {z }
r veces s veces

donde, analogamente a como hemos hecho en el captulo anterior, empleamos super-ndices para
los ndices contravariantes y subndices para los ndices covariantes, y donde se aplica el convenio
de suma de Einstein para todos los ndices repetidos.
En fsica es frecuente tomar la anterior ley de transformacion como definicion de tensor de orden
r-covariante s-contravariante. Esta definicion tiene la ventaja de ser la generalizacion directa de las
correspondientes leyes de transformacion que hemos visto en el apartado anterior para tensores de
orden 1 y 2, pero tiene el inconveniente de resultar poco intuitiva. En este captulo intentaremos
aclarar el significado de la anterior ley de transformacion de tensores generales.
Desde un punto de vista mas formal, los tensores se pueden definir como elementos de un espacio
vectorial denominado espacio producto tensorial, tal y como veremos mas abajo, lo cual tiene la
ventaja de que en ese contexto la ley de transformacion anterior resulta totalmente natural, e incluso
intuitiva. Tambien es habitual definir formalmente los tensores como aplicaciones multilineales
definidas entre ciertos espacios producto tensorial, tal y como veremos tambien en este captulo.
32 CAPITULO 2. TENSORES

Antes de pasar a estas definiciones mas formales vamos a justificar el empleo de objetos tensoriales
de orden superior con algunos ejemplos de interes en fsica.

2.2. Magnitudes fsicas de rango tensorial superior


El uso de escalares y vectores en fsica resulta totalmente natural pero como aparecen los
tensores de orden superior?
Con mucha frecuencia los tensores de orden superior aparecen como aplicaciones lineales entre
tensores de orden mas bajo. Por ejemplo, la relacion entre el momento de las fuerzas aplicadas
y la aceleracion angular en un solido rgido (o entre el momento angular y la velocidad angular)
esta dada por una aplicacion lineal, siendo la matriz de inercia la constante de proporcionalidad.
En el caso de una esfera con densidad uniforme todas las direcciones son equivalentes, de modo
que la resistencia al giro, es decir, la inercia que hay que vencer al aplicar un torque, es la misma
sea cual sea la direccion del eje de giro (suponiendo que el eje de giro pasa por el centro de la
esfera), y como consecuencia en ese caso la matriz de inercia es proporcional a la matriz identidad.
A diferencia de la esfera con densidad uniforme, si consideramos un objeto con una distribucion
anisotropa de masa la inercia dependera de la orientacion del eje de giro, y como consecuencia el
momento angular no tendra la misma direccion que la velocidad angular. En ese caso, para describir
la inercia del objeto es necesario emplear una matriz, que ya no sera proporcional a la identidad.

Rango tensorial y direccionalidad


El ejemplo anterior muestra que la aparicion de tensores de orden superior responde a un
comportamiento anisotropo, es decir, a que estamos describiendo propiedades fsicas que dependen
de la direccion considerada. De manera algo informal podramos decir que el rango tensorial indica
el numero de direcciones que entran en juego en la magnitud que estamos estudiando: una magnitud
escalar carece de direccionalidad, en el caso de una magnitud vectorial el vector define una direccion
y en el caso de un tensor de orden 2 entran en juego 2 direcciones. Por ejemplo, en la relacion L = I
las dos direcciones que entran en juego son las definidas por el momento angular L y la velocidad
angular , y la matriz de inercia I nos proporciona la relacion que existe entre estas 2 direcciones.

2.2.1. Tensores de polarizabilidad y de conductividad electrica


El comportamiento de los medios materiales bajo la aplicacion de un campo electrico permite
introducir de manera bastante intuitiva el concepto y utilidad de tensores de orden 2 en fsica.
Consideremos el caso de la relacion entre el vector polarizacion por unidad de volumen (P ) y el
vector campo electrico (E) en un medio material dielectrico. Como es bien sabido, al aplicar un
campo electrico en un medio material las cargas positivas tienden a desplazarse segun el campo,
mientras que las cargas negativas tienden a desplazarse en sentido contrario. Estos desplazamientos
de carga inducen una cierta polarizacion por unidad de volumen en el material, que normalmente
puede describirse como una funcion lineal del campo electrico aplicado.

Por que existe una relacion lineal entre P y E?

La polarizacion por unidad de volumen es consecuencia de la aplicacion del campo externo E, de


modo que P debe ser una funcion creciente de E (P = P (E)). Si el medio en consideracion carece
de polarizacion espontanea en ausencia de campo electrico externo, es decir, si no es ferroelectrico,
2.2. MAGNITUDES FISICAS DE RANGO TENSORIAL SUPERIOR 33

entonces la polarizacion correspondiente a campo externo nulo es nula. Teniendo esto en cuenta,
aproximando P = P (E) por su desarrollo en serie de Taylor en torno a E = 0, a orden mas bajo
encontramos la mencionada relacion lineal P = E, definiendose la constante de proporcionalidad
como la polarizabilidad del medio.
En el caso de un medio isotropo la respuesta del medio es la misma independientemente de la
direccion del campo aplicado. En ese caso P tiene la misma direccion que E, y la polarizabilidad es
sencillamente un escalar (o si se prefiere un escalar multiplicado por la matriz identidad). Esto es
lo que sucede en el caso de los gases y los lquidos sencillos, en esos casos las moleculas que forman
el medio estan orientadas de todas las formas posibles con igual probabilidad, de tal forma que, al
promediar, a nivel macroscopico no existe ninguna direccion especial en el medio. La situacion es
diferente en el caso de un medio cristalino. Es evidente que en un cristal no todas las direcciones
son equivalentes: en una red cubica es distinto aplicar un campo en la direccion de la diagonal
principal a hacerlo segun la direccion perpendicular a dos caras opuestas. En otro caso podramos
tener como celda fundamental no cubos, sino pareleleppedos con aristas de distintos tamanos
segun las 3 direcciones del espacio; en cualquiera de estos casos la respuesta del medio sera distinta
dependiendo de la orientacion del campo aplicado, ya que en ciertas direcciones las cargas pueden
moverse mas facilmente que en otras. En un medio desordenado, como un gas o un lquido, las
orientaciones particulares de las moleculas a nivel microscopico no se traducen en una direccion
privilegiada a nivel macroscopico, ya que al promediar en todas las orientaciones posibles estos
efectos se cancelan. Esto no sucede en un medio cristalino, ya que en estos la celda fundamental
que define la red se repite siempre con la misma orientacion. Como consecuencia, en un medio
cristalino la anisotropa introducida por la celda fundamental a nivel microscopico se traduce en
un comportamiento anisotropo a nivel macroscopico. En ese caso la polarizabilidad ya no es la
misma en todas las direcciones, pero la relacion lineal entre P y E sigue siendo valida (siempre y
cuando E no sea demasiado elevado), de modo que estos dos vectores ya no seran sencillamente
proporcionales, sino que estaran relacionados por una aplicacion lineal P = E. En ese caso la
polarizabilidad pasa a ser una aplicacion lineal y es muy facil ver que si P y E son vectores
1-contravariantes, entonces necesariamente es un tensor 1-covariante 1-contravariante.
Otro ejemplo similar es el de la conductividad electrica. Cuando se aplica un campo electrico
en un medio conductor aparece una cierta densidad de corriente electrica j, que es proporcional a
E (al menos para campos no demasiado intensos), definiendose la constante de proporcionalidad
como la conductividad electrica del medio. Si la movilidad de las cargas libres no es la misma en
todas las direcciones, entonces j y E dejan de ser proporcionales, pero siguen estando relacionados
linealmente. En ese caso la conductividad pasa a estar descrita por una aplicacion lineal, es decir,
un tensor 1-covariante 1-contravariante.
En los dos ejemplos precedentes podra parecer que la validez de la aproximacion lineal es
muy limitada, sin embargo en la practica se observa que esta aproximacion se cumple con mucha
frecuencia incluso para campos aplicados muy intensos. En principio la aproximacion lineal debera
ser valida solo en el lmite de campos externos muy debiles, pero debiles comparados con que escala.
La aproximacion lineal es valida siempre que el campo aplicado sea pequeno en comparacion con
la escala de intensidad de campo electrico tpica en el material a nivel microscopico, la cual es
muchos ordenes de magnitud mayor que la escala tpica de intensidad de campo electrico del mundo
macroscopico. El motivo de esta diferencia de escala es muy simple. Por un lado a nivel microscopico
las distancias tpicas son muchos ordenes de magnitud menores que a nivel macroscopico, por otro
a nivel macroscopico todas las cargas suelen estar apantalladas, lo cual no siempre sucede a nivel
microscopico. Esta diferencia de escala entre la intensidad tpica de los campos a nivel micro- y
34 CAPITULO 2. TENSORES

macroscopico explica la validez de la aproximacion lineal, incluso cuando aplicamos campos que
desde el punto de vista macroscopico nos parecen muy intensos, pero que no lo son tanto si los
comparamos con las escalas tpicas del mundo microscopico.
En fsica es muy frecuente encontrar magnitudes relacionadas entre s por aplicaciones lineales.
Esto sucede en multitud de leyes fundamentales, como la que relaciona el momento de las fuer-
zas aplicadas sobre un solido y su aceleracion angular; y tambien en leyes menos fundamentales,
deducidas como una primera aproximacion de un comportamiento mas complejo. En este ultimo
caso, si la propiedad A aparece como consecuencia de aplicar la magnitud B, A sera una funcion
creciente de B. Si el valor de A para B = 0 es nulo, entonces por medio de un desarrollo en serie de
Taylor encontramos una relacion lineal entre estas magnitudes, que sera valida siempre y cuando
B no sea demasiado elevado. Si la estructura microscopica del medio es anisotropa, es decir, si
la respuesta del medio es diferente dependiendo de la direccion considerada, entonces la relacion
lineal entre A y B no se reduce a una mera relacion de proporcionalidad, sino que tendremos una
relacion del tipo A = T B, donde T es un tensor con el rango tensorial adecuado, determinado
por los rangos tensoriales de A y B. Desde el punto de vista fsico las leyes fsicas lineales implican
la validez del conocido principio de superposicion. Desde el punto de vista matematico siempre que
dos magnitudes fsicas esten relacionadas por una aplicacion lineal, y queramos aplicar cambios de
base, tendremos que emplear tensores.

2.2.2. Tensor de esfuerzos o de tensiones


El estado de tensiones existente en el interior de un material esta dado por un tensor de orden
2, denominado tensor de tensiones o tensor de esfuerzos. Estas tensiones a las que nos referimos
son las fuerzas aplicadas por unidad de superficie entre elementos contiguos del material, ejercidas
a traves de la superficie que separa los elementos considerados. Los ejemplos mas visuales son las
fuerzas elasticas que aparecen en un material elastico al deformarlo, las fuerzas de presion existentes
en un fluido, o las fuerzas de rozamiento interno (fuerzas viscosas) que aparecen en los fluidos en
movimiento. Desde el punto historico el estudio de las tensiones internas existentes en cualquier
medio material es lo que motivo la aparicion de los tensores, por este motivo estudiaremos este
ejemplo con cierta profundidad.
Consideremos dos elementos diferenciales de volumen contiguos, situados en un punto dado
en el interior de cualquier medio material y separados por un determinado elemento diferencial
de superficie. Como consecuencia de las interacciones existentes entre las moleculas que forman el
material, cada uno de estos 2 elementos diferenciales de volumen ejerce una fuerza por unidad de
superficie sobre el otro, a traves de la superficie que los separa. Esta fuerza por unidad de superficie
se denomina tension, y depende del punto considerado y de la orientacion de la superficie que separa
los elementos considerados. Si llamamos s a la fuerza por unidad de superficie ejercida tenemos
entonces
s = s(r, n) (2.2)

donde r es el punto considerado y n la normal a la superficie considerada en el punto r. En


principio podra parecer que para caracterizar totalmente el estado de tensiones en el interior de
un material tenemos que conocer la funcion vectorial s, como funcion de los vectores de posicion
r y de orientacion de la superficie considerada n, es decir, una funcion vectorial de 3 componentes
definida como funcion de 9 variables. En realidad la situacion es mucho mas sencilla, como veremos
a continuacion.
2.2. MAGNITUDES FISICAS DE RANGO TENSORIAL SUPERIOR 35

Convenio
En lo sucesivo supondremos que s(r, n) representa la fuerza por unidad de superficie ejercida
por el medio situado en el lado de la superficie hacia donde apunta la normal n sobre el medio
situado al otro lado de la superficie.

Figura 2.1: El producto n es la fuerza por unidad de superficie ejercida por el medio
situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado.

Como consecuencia la fuerza de superficie total aplicada sobre un volumen cualquiera Vc


esta dada por la integral de superficie

F = s(r, n) dS (2.3)
Vc

siendo Vc la superficie que limita a Vc y n la normal a Vc orientada hacia el exterior.

Las fuerzas por unidad de superficie pueden ser tangentes a la superficie considerada, en cuyo
caso se denominan tensiones cortantes o de cizalla; o normales a la superficie considerada. De estas
ultimas, segun el convenio adoptado mas arriba, una fuerza con signo positivo corresponde a una
tension y una negativa a una compresion.
Por el principio de accion y reaccion la fuerza por unidad de superficie ejercida por el medio
situado en el lado de la superficie desde donde apunta n, sobre el medio situado al otro lado de la
superficie, esta dada por s (Fig. 2.1). Esto implica que s es una funcion impar de n

s(r, n) = s(r, n) (2.4)

Consideremos el elemento infinitesimal de volumen dado por el tetraedro representado en la


figura F. 2.2. Las normales orientadas hacia el exterior a las superficies perpendiculares a los ejes
x, y y z estan dadas por los vectores unitarios i, j y k respectivamente, y llamaremos n a la
normal (orientada hacia el exterior) a la superficie ABC. Recordando que la fuerza por unidad de
superficie es una funcion impar de la normal, la fuerza resultante aplicada sobre este elemento de
volumen (dV ) situado en r es

f (r) dV + s(r, n) d s(r, i) dx s(r, j) dy s(r, k) dz (2.5)


36 CAPITULO 2. TENSORES

dx
dy
B y
dz

x
Figura 2.2: Elemento infinitesimal de medio material con forma de tetraedro.

donde hemos denominado d al area de la superficie ABC, dx al area de la superficie perpendicular


al eje x, y similarmente para las superficies perpendiculares a los ejes y y z, y donde f es la resultante
de las fuerzas aplicadas por unidad de volumen sobre este elemento (por ejemplo su peso por unidad
de volumen).
Dividiendo por dV y tomando el lmite dV 0 el termino debido a las fuerzas por unidad de
volumen tiende al valor de la aceleracion del elemento considerado (multiplicado por la masa por
unidad de volumen, es decir, por la densidad). Sin embargo, los terminos debidos a las tensiones
divididos por dV divergen, ya que el elemento de volumen es proporcional al cubo de la dimension
lineal del tetraedro, mientras que los elementos de superficie son proporcionales al cuadrado de la
dimension lineal del tetraedro. La unica posibilidad de resolver esta paradoja de manera compatible
con el principio de conservacion del momento lineal (segunda ley de Newton), es que la resultante
de todas las fuerzas de superficie aplicadas sobre el elemento diferencial considerado sea nula en
el lmite dV 0, es decir, cuando todas las contribuciones se evaluan en el mismo punto. Por
tanto, en el lmite dV 0 la tension ejercida en un punto cualquiera (r), a traves de una superficie
cualquiera (con normal n), esta dada por

s(r, n)d = s(r, i)dx + s(r, j)dy + s(r, k)dz (2.6)

Por otra parte es muy facil ver que los elementos de superficie di estan relacionados con d por
medio de
dx = n1 d, dy = n2 d, dz = n3 d (2.7)

siendo ni las componentes covariantes de n. Por tanto llegamos finalmente a

s(r, n) = s(r, i)n1 + s(r, j)n2 + s(r, k)n3 (2.8)

que expresa la tension ejercida en el punto r a traves de la superficie con normal n como combinacion
lineal de las tensiones ejercidas en r a traves de las tres superficies perpendiculares a los ejes.
2.2. MAGNITUDES FISICAS DE RANGO TENSORIAL SUPERIOR 37

La anterior expresion se puede expresar de una manera mas compacta por medio del tensor de
tensiones (o tensor de esfuerzos) definido por

sx (r, i) sx (r, j) sx (r, k)

y
(r) = (s(r, i) s(r, j) s(r, k)) = s (r, i) s (r, j) s (r, k)
y y (2.9)

sz (r, i) sz (r, j) sz (r, k)

Definido de esta manera, la componente ij del tensor de tensiones representa la componente


segun el eje i de la tension ejercida sobre el medio, en el punto r, a traves del elemento de superficie
perpendicular a la direccion j. Con esto la tension ejercida a traves de la superficie perpendicular
a n (figura 2.1) queda como
s(r, n) = (r) n (2.10)
En componentes cartesianas la anterior expresion queda como

si = ij nj (2.11)

donde se ha omitido la dependencia en r y se ha empleado el convenio de suma de Einstein. Esto nos


define el tensor de tensiones como un tensor 2-contravariante, ya que (como veremos mas adelante)
las fuerzas se describen de manera natural por medio de sus componentes contravariantes y la
normal a una superficie como un vector covariante. El tensor de tensiones es un objeto con rango
tensorial 2, y como puede verse las dos direcciones que entran en juego en este caso son las de la
normal a la superficie considerada y la definida por la fuerza por unidad de superficie que se ejerce
a traves de dicha superficie.
El tensor de tensiones caracteriza totalmente el estado de tensiones internas en el interior de un
material, ya que, por medio de Ec. (2.11), permite calcular la tension ejercida en cualquier punto
del material a traves de una superficie cualquiera. Por otra parte, imponiendo que el momento
neto aplicado sobre el tetraedro infinitesimal (Fig. 2.2) debe ser nulo en el lmite dV 0, es muy
facil comprobar que el tensor de tensiones es necesariamente simetrico ij = ji . De modo que
para caracterizar totalmente el estado de tensiones en el interior de un material basta conocer 6
funciones ( 11 , 22 , 33 , 12 , 13 , 23 ) que dependen exclusivamente del vector de posicion r.

Medios elasticos y fluidos Newtonianos


En un medio elastico las tensiones son proporcionales a las deformaciones, que estan a su vez
descritas por un tensor de orden 2, de tal forma que en ese caso la constante de proporcionalidad
es nada menos que un tensor de orden 4, denominado tensor de elasticidad.
El motivo por el que es necesario un tensor de orden 2 para describir el estado de deformaciones
existente en un material es el siguiente. Al deformar un material, cada elemento diferencial de
volumen se desplaza desde su posicion en el material no deformado a su posicion en el material
deformado, lo cual nos define un vector desplazamiento u que depende del punto. Es evidente
que un desplazamiento u constante en todo el material corresponde a que el material se desplaza
como un todo, sin deformarse. Las deformaciones aparecen cuando puntos del material inicialmente
proximos se desplazan de forma distinta, por tanto para describir las deformaciones necesitamos
analizar las derivadas del vector desplazamiento respecto de cada una de las direcciones del espacio,
es decir ui /xj , lo que nos produce un tensor de segundo orden.
Como consecuencia la constante de proporcionalidad entre tensiones y deformaciones es un ten-
sor de orden 4, con 34 = 81 componentes. Esto parece indicar que para describir las propiedades
38 CAPITULO 2. TENSORES

elasticas de cualquier medio tendramos que suministrar nada menos que 81 constantes elasticas.
En realidad, como consecuencia de la simetra del tensor de elasticidad, el numero de constantes
diferentes es mucho menor (en la mayora de los casos solo 2). Para empezar, tal y como hemos
mencionado mas arriba puede demostrarse facilmente que el tensor de tensiones es necesariamente
simetrico ij = ji (de lo contrario no puede cumplirse la conservacion del momento angular). Por
otra parte el tensor j
( de deformaciones ) esta dado solo por la componente simetrica
( de u i /x , es de-
)
cir, por eij 2 ui /x + uj /x , ya que la componente antisimetrica ( 2 ui /x uj /xi )
1 j i 1 j

describe rotaciones tipo solido rgido, que no introducen deformaciones. Como consecuencia de esta
simetra, de las 81 componentes elasticas del tensor de elasticidad solo puede haber 36 distintas.
Por otra parte, en la mayora de los casos los medios elasticos considerados tienen cierta simetra,
es decir, son invariantes (y todas sus propiedades fsicas tambien) bajo ciertas operaciones, como
por ejemplo rotaciones o reflexiones. Esta simetra impone ligaduras entre los posibles valores de las
36 constantes elasticas anteriores, haciendo que disminuya el numero de constantes independientes.
En ultima instancia, en un medio elastico isotropo la respuesta elastica del medio es la misma
independientemente de la direccion considerada, y como consecuencia las propiedades elasticas son
invariantes bajo cualquier rotacion. En ese caso de las 36 constantes elasticas anteriores, en realidad
solo hay 2 distintas, que se suelen tomar como el modulo de Young y el Coeficiente de Poisson.
En el caso de un fluido la situacion es similar, pero en ese caso las tensiones viscosas no son
proporcionales a la deformacion, sino a la velocidad de deformacion, es decir, a la deformacion
introducida por unidad de tiempo como consecuencia ( del movimiento) del fluido. Esta velocidad
de deformacion esta dada por el tensor eij 2 ui /xj + uj /xi , donde ahora el vector u
1

representa el desplazamiento por unidad de tiempo de cada punto del fluido, es decir, el campo
de velocidades del fluido. Los fluidos en los que se cumple la aproximacion lineal entre tensiones
viscosas y velocidad de deformacion se denominan Newtonianos. Igual que hay solidos no elasticos,
tambien hay fluidos no Newtonianos, en ellos la aproximacion lineal entre tensiones y deformaciones
no es valida. Analogamente a como suceda en los medios elasticos, en los fluidos Newtonianos el
coeficiente de proporcionalidad entre el tensor de tensiones y el de velocidad de deformacion es
un tensor de orden 4, en el que por la simetra del tensor de tensiones y del de velocidad de
deformacion (ambos simetricos) solo puede haber 36 componentes distintas. La inmensa mayora
de los fluidos son isotropos, de modo que en esos casos de las 36 componentes anteriores solo hay 2
independientes, que se definen en terminos de la viscosidad de cizalla y la viscosidad de volumen.

2.2.3. Derivacion de campos tensoriales


Un campo tensorial es un objeto con comportamiento tensorial bien definido, pero cuyo valor
depende del punto en que nos encontremos en el espacio. Los familiares campos escalares (como un
campo de temperaturas) o vectoriales (como un campo de velocidades o el vector campo electrico)
son ejemplos de campos tensoriales de orden 0 y 1 respectivamente. El estado de tensiones ejercidas
en el interior de un material nos proporciona un ejemplo de campo tensorial de orden 2.
En espacios Eucldeos, cuando se usan coordenadas cartesianas, la derivacion parcial respecto
de las coordenadas espaciales es una operacion que aumenta en 1 el rango tensorial del objeto
resultante cada vez que se aplica. Por ejemplo, ya hemos mencionado que un campo de tempe-
raturas T = T (x, y, z) es una magnitud escalar. Sin embargo su gradiente T , con componentes
cartesianas T /xi es un vector 1-covariante, y su derivada segunda (con componentes cartesianas
2 T /(xi xj )) es un tensor 2-covariante. En general al derivar respecto de las coordenadas carte-
sianas contravariantes xi aumentamos en 1 el rango tensorial covariante del objeto. En el apartado
anterior hemos llegado a considerar tensores de orden 4, en cualquier caso en que entren en juego
2.3. DEFINICION DE TENSOR 39

las derivadas direccionales de estos tensores estaremos manejando tensores de orden superior.
En el caso de espacios no Eucldeos, o de espacios Eucldeos descritos en terminos de coordenadas
curvilneas, la operacion de derivacion direccional con comportamiento tensorial bien definido es
la derivada covariante, que es la generalizacion de la derivada parcial al caso en que los vectores
de la base no son constantes, sino que varan de un punto a otro. Entender bien el significado y
propiedades de la derivada covariante es, posiblemente, el objetivo mas importante de este curso.
El motivo es el siguiente, ya hemos mencionado que las leyes fsicas pueden expresarse de manera
independiente al sistema de referencia empleado como ecuaciones tensoriales; en la mayora de los
casos las leyes fsicas expresan principios de conservacion que cumplen unas magnitudes (masa,
energa, momento, . . . ) descriptibles como campos tensoriales; estos principios de conservacion se
expresan como ecuaciones en las que entran las derivadas direccionales de estos campos, es decir,
como ecuaciones diferenciales en derivadas parciales. Pues bien, en la expresion tensorial de estas
leyes la derivada direccional que entra en juego es la derivada covariante.
Antes de estudiar la definicion y propiedades de la derivada covariante es conveniente estudiar
a fondo algunas propiedades generales de tensores de rango arbitrario. De todas formas, esperamos
que esta seccion haya servido para estimular cierta intuicion fsica sobre el concepto de tensores y
su uso en fsica, incluyendo algunos tensores de rango elevado.

2.3. Definicion de tensor


Una vez hemos visto la idea intuitiva de tensor y algunos ejemplos de tensores empleados en
fsica, vamos a ver a continuacion la definicion formal de tensor.

2.3.1. Espacio producto tensorial


Dados los espacios vectoriales E1 y E2 sobre el cuerpo K, con dimensiones n1 y n2 respectiva-
mente, se define el espacio producto tensorial E1 E2 como el espacio vectorial de n1 n2 dimensiones
cuyos elementos estan dados por x y para cualquier par de vectores x E1 e y E2 .
El elemento x y de E1 E2 se denomina producto tensorial de los vectores x e y. En el caso
particular en que E1 = E2 , el producto x y se denomina tambien producto diadico, y en ese caso
la diada x y se denota a veces sencillamente por xy.
El producto tensorial de dos espacios puede entenderse como la tabla de productos cartesianos
ordenados de todos los elementos x E1 por los y E2 , dotada de las siguientes propiedades:

propiedad distributiva respecto a la suma de vectores en ambos argumentos

x E1 , y 1 , y 2 E2 , x (y 1 + y 2 ) = x y 1 + x y 2 (2.12)

x1 , x2 E1 , y E2 , (x1 + x2 ) y = x1 y + x2 y (2.13)

propiedad asociativa respecto al producto por escalares

x E1 , y E2 , K, (x y) = (x) y = x (y) (2.14)

Base del espacio producto tensorial: si {ei }ni=1 1


es una base de E1 y {ej }nj=1 2
es una base de
E2 , entonces {eij } = {ei ej } con i = 1, . . . , n1 , y j = 1, . . . , n2 es una base de E1 E2 . La
base construida de esta manera se denomina base producto tensorial de las bases de partida.
40 CAPITULO 2. TENSORES

Como consecuencia de estas propiedades, dados los vectores x = xi ei E1 e y = y j ej E2 , el


producto tensorial x y puede ponerse en componentes como

x y = xi y j eij (2.15)

Una vez formado el espacio producto tensorial E1 E2 , podemos construir el espacio producto
tensorial de este por un tercer espacio E3 , de tal forma que se verifica la
propiedad asociativa del producto tensorial, para cualesquiera espacios vectoriales E1 , E2 , E3
se cumple
E1 E2 E3 = (E1 E2 ) E3 = E1 (E2 E3 ) (2.16)

Por medio de la propiedad anterior podemos construir de manera recursiva el espacio producto
tensorial de cualquier conjunto de espacios vectoriales E1 E2 Ep , o de un mismo espacio
vectorial E por s mismo un numero arbitrario (p) de veces. Con frecuencia esto se denomina
potencia tensorial p de E y se denota por Ep . Por completitud, en el caso p = 0 se define el
espacio E0 como el cuerpo de escalares (K) sobre el que esta definido el espacio vectorial E. En
nuestro caso normalmente tendremos E0 = R.
Una vez construido el espacio producto tensorial E1 E2 Ep , se definen como tensores
construidos sobre los espacios base E1 , E2 , . . . , Ep a todos los elementos de E1 E2 Ep .

2.3.2. Tensores afines


Dado el espacio vectorial E, consideramos el espacio dado por el producto tensorial de s copias
de E y r copias del espacio dual E . Si la dimension de E es n, entonces la dimension de este
espacio es nr+s . Se denominan tensores afines ligados al espacio E a todos los elementos del espacio
producto tensorial de E con s mismo y su dual un numero arbitrario de veces. La mayora de
los tensores empleados en fsica son tensores afines, de hecho este tipo de tensores son los mas
empleados en la practica, de tal forma que con muchsima frecuencia se les denomina sencillamente
tensores. En este curso siempre que hablemos de tensores nos estamos refiriendo a tensores afines,
de acuerdo a la definicion anterior.{ }
Dadas las bases {ei }ni=1 de E y ei i=1 del espacio dual E , los elementos T del espacio producto
n

tensorial
E r Es = E| E {z. . . E} E

| E{z . . . E} (2.17)
r veces s veces
pueden ponerse en componentes como

T = Tji11 ji22 ...


... is
jr ei1 ei2 . . . eis e e . . . e
j1 j2 jr
(2.18)

Si realizamos un cambio de base en E, dado por la matriz de cambio de base C, esto induce el
correspondiente cambio de base en el espacio dual E y como consecuencia tambien en el espacio
producto tensorial E r Es . Como resultado del comportamiento covariante de la base de E
y contravariante de la correspondiente base dual, es muy sencillo comprobar que el conjunto de
componentes Tji11 ji22 ...
... is
jr se transforma de acuerdo a la regla de transformacion tensorial r-covariante
s-contravariante definida { en}nEc. (2.1). Para ello basta con sustituir cada uno de los vectores
{ de
}n las
bases viejas ({ei }ni=1 y ei i=1 ) en terminos de los vectores de las bases nuevas ({ei }ni=1 y ei i=1 )
y aplicar la propiedad asociativa del producto tensorial frente al producto por escalares.
Vemos por tanto que en el contexto del espacio vectorial E r Es la ley de transforma-
cion bajo cambios de base dada por Ec. (2.1) es totalmente natural, y puede entenderse como la
2.3. DEFINICION DE TENSOR 41

generalizacion al espacio producto tensorial de las conocidas leyes de transformacion de las compo-
nentes de un vector de E bajo cambios de base. Esta ley de transformacion garantiza que el objeto
T E r Es definido en Ec. (2.18) es invariante bajo cambios de base.

2.3.3. Algebra tensorial


Dada la estructura de espacio vectorial que hemos asignado al espacio producto tensorial por
medio de las propiedades distributiva respecto a la suma de vectores (Ec. (2.12)) y asociativa
respecto al producto por escalares (Ec. (2.14)), sobre los tensores generales tenemos definidas las
operaciones de suma de tensores y producto por escalares.

Suma de tensores: Dados 2 tensores del mismo tipo, es decir, pertenecientes al mismo espacio
producto tensorial T, se define la suma de tensores como el tensor que resulta de sumar estos
componente a componente (obviamente estamos dando por hecho que estas componentes
estan referidas a la misma base).

El tensor que se obtiene al sumar dos tensores dados pertenece al mismo espacio que los
anteriores y es unico

A, B T, !C = A + B T, Cji11 ji22 ... is i1 i2 ... is i1 i2 ... is


... jr = Aj1 j2 ... jr + Bj1 j2 ... jr (2.19)

Dos tensores de distinto tipo, es decir, que no pertenezcan al mismo espacio producto
tensorial, no se pueden sumar.
Dado que la suma de tensores se realiza componente a componente, esta operacion cum-
ple las propiedades habituales de la adicion (conmutativa, asociativa, elemento neutro,
elemento opuesto).

Producto por escalares: Dado un tensor T perteneciente a un determinado espacio producto


tensorial T, se define el producto del tensor T por el escalar como el resultado de multiplicar
cada una de las componentes del tensor por el escalar.

El tensor que se obtiene al multiplicar un tensor dado por un escalar pertenece al mismo
espacio que el tensor de partida y es unico

T T, !T = T T, T j11 j22 ... jsr = Tji11 ji22 ...


i i ... i ... is
jr (2.20)

2.3.4. Producto tensorial


La operacion producto tensorial de dos vectores definida previamente, se generaliza de manera
automatica al caso de 2 tensores de rango arbitrario A y B, pertenecientes a dos espacios producto
tensorial arbitrarios T1 y T2 . El resultado de este producto es unico y pertence al espacio producto
tensorial T1 T2 :
A T1 , B T2 , !C = A B T1 T2 (2.21)
Dados los desarrollos en componentes de A y B

A = Aij11 ... is
... jr ei1 . . . eis e . . . e
j1 jr
(2.22)

k ... k
B = B11 ... pq ek1 . . . ekq e1 . . . ep (2.23)
42 CAPITULO 2. TENSORES

la base producto tensorial de las bases de T1 y T2 esta dada por


ei1 . . . eis ej1 . . . ejr ek1 . . . ekq e1 . . . ep (2.24)

y las componentes del tensor C referidas a esta base estan dadas por
i ... i k ... k k ... k
Cj11 ... jsr 11 ... pq = Aij11 ... is 1
... jr B1 ... p
q
(2.25)

Como puede verse, si A es un tensor r-covariante s-contravariante y B es un tensor p-covariante


q-contravariante, el objeto definido por el producto tensorial A B es un tensor de rango r + p-
covariante s + q-contravariante. En ocasiones el producto tensorial se denomina producto exterior.

2.4. Aplicaciones multilineales


Las operaciones definidas hasta ahora permiten sumar tensores del mismo tipo, multiplicarlos
por escalares y construir tensores de rango superior por medio del producto tensorial. Si visua-
lizamos los tensores por medio de matrices multidimensionales, las operaciones anteriores nos
permiten construir combinaciones lineales de estas matrices y tambien matrices de mayor dimen-
sionalidad por medio del producto tensorial. La propiedad que hace tan utiles las matrices ordinarias
es que representan aplicaciones lineales, de tal forma que el producto matricial de una matriz por
un vector
Ax=y (2.26)
nos permite calcular la accion de dicha aplicacion lineal sobre el vector (A(x) = y). Analogamente,
el producto matricial de dos matrices C = B A nos genera una matriz que representa la aplicacion
lineal resultante de la composicion de las aplicaciones lineales dadas por las matrices de partida

C x = y, y = B(A(x)) (2.27)

La gran utilidad de los tensores es que permiten generalizar el producto matricial a objetos mul-
tidimensionales, de rangos co- y contra-variantes arbitrarios, de tal forma que podemos emplearlos
como aplicaciones multilineales definidas entre espacios producto tensorial. El termino multilineal
se refiere a que los tensores definen aplicaciones lineales respecto de cada uno de sus ndices. Para
emplear los tensores como aplicaciones multilineales es preciso definir primero la conocida operacion
de contraccion de ndices.

2.4.1. Contraccion de ndices


La operacion de contraccion de ndices que definimos a continuacion puede considerarse como
una generalizacion de la traza de un operador lineal. En el captulo anterior hemos definido la traza
de un operador lineal A, con matriz Aij , como el escalar dado por tr(A) = Aii . La operacion que
hemos realizado para calcular tr(A) es la contraccion del ndice contravariante de Aij con su ndice
covariante; esta contraccion esta dada por la suma de Aii para todos los valores posibles de i, de
acuerdo con el convenio de suma de Einstein.
En general, dado el tensor r-covariante s-contravariante con componentes Tji11 ji22 ...
... is
jr , la contrac-
cion del superndice is con el subndice jr , dada por

n
i i ... i i i ... i
Tj11 j22 ... js1
r1
= Tj11 j22 ... js1
r1
(2.28)
=1
2.4. APLICACIONES MULTILINEALES 43

genera un tensor de orden r 1-covariante s 1-contravariante, con las componentes que acabamos
de indicar. Similarmente a como hemos hecho para contraer los dos ultimos ndices de Tji11 ji22 ...
... is
jr ,
podramos haber tomado cualquier otro par de ndices co- y contra-variantes, calculandose la co-
rrespondiente contraccion de manera analoga:

se igualan los valores de los ndices escogidos a un ndice mudo ( en Ec. (2.28)) y se suma
para todos los valores posibles del ndice mudo.

Al contraer un ndice covariante con uno contravariante sus comportamientos co- y contra-variantes
se cancelan, resultando en un objeto tensorial cuyos ordenes co- y contra-variantes se han reducido
en una unidad.
Podemos contraer cualquier pareja de ndices, la unica condicion es que siempre se contrae
un ndice co-variante con otro contra-variante. La contraccion de dos ndices del mismo tipo no
esta definida (p. ej. tr(A) = Aii , pero gii no tiene ningun sentido, por el contrario, gii si esta definido
y es muy sencillo de calcular).
De manera un poco mas formal, dado un espacio vectorial E y su dual E , existe una aplicacion
lineal definida sobre E E con imagen en el cuerpo K, tal que a cada elemento x y E E
le hace corresponder la accion de la aplicacion x sobre el vector y, dada por x (y) = x y K
(siendo x el vector asociado a la aplicacion x por medio del teorema de Riesz-Frechet). De esta
forma, si tenemos la aplicacion lineal A = Aij ej ei , la contraccion del superndice i con el
subndice j corresponde a Aij ej (ei ) = Aij ij = Aii (por definicion de base dual). En el caso de un
tensor de orden superior, la contraccion de dos ndices cualesquiera ( y ) se calcula de manera
analoga, sustituyendo e e por e (e ) = . Esta forma de definir la contraccion de ndices
pone de manifiesto de manera mas evidente que solo se pueden contraer ndices covariantes con
ndices contravariantes (y viceversa) y que el objeto resultante tiene el comportamiento tensorial
que hemos mencionado.

2.4.2. Producto de contraccion


Una vez definida la contraccion de ndices, definimos el producto de contraccion de los tensores
k ... k
Aji11 ... is
y B11 ... pq respecto de sus ndices jr y kq como el resultado de contraer dichos ndices en el
... jr
tensor producto tensorial de los dos tensores dados, es decir
i ... i k ... k i1 ... is k ... k
Cj11 ... jsr11 1 ...q1 1
p = Aj1 ... jr1 B1 ... p
q1
(2.29)

donde, por supuesto, hay suma respecto al ndice mudo .


Dado que el producto tensorial tiene comportamiento tensorial bien definido, y la contraccion
de ndices tambien, el producto de contraccion genera un objeto con comportamiento tensorial bien
definido, con rango tensorial (r + p 1)-covariante (s + q 1)-contravariante en el caso anterior.
En este caso hemos realizado el producto de contraccion de A por B respecto del ultimo ndice
covariante de A y el ultimo ndice contravariante de B. Analogamente, podramos haber calculado
el producto de contraccion respecto de cualquier otra pareja de ndices, con la unica restriccion de
tener un ndice de cada tipo. Cuando se manejan tensores se emplea constantemente el producto
de contraccion. En este curso lo hemos estado haciendo incluso desde el primer captulo, p. ej.
con expresiones del tipo x y = gij xi y j , con las que hemos trabajado desde mucho antes de antes
de definir el producto tensorial y la contraccion de ndices. Otro ejemplo son todas las leyes de
transformacion de las componentes de cualquier tensor ante un cambio de base, que tambien estan
44 CAPITULO 2. TENSORES

dadas por los correspondientes productos de contraccion del tensor con la matriz del cambio y su
inversa.
El producto de contraccion generaliza a tensores de orden arbitrario el producto de matrices.
De hecho, el producto matricial Cji = Aik Bjk esta dado por la contraccion de Ai Bj respecto de los
ndices y . El producto escalar (xy = gij xi y j = xi y i = xi yi ) tambien esta dado por un producto
de contraccion. Una vez mas, es importante darse cuenta de que solo se pueden contraer ndices
correspondientes a comportamientos tensoriales opuestos (uno covariante con uno contravariante).
Por medio de esta operacion podemos considerar el tensor T E r Es , con componentes
Tj1 j2 ... jr , como una aplicacion multilineal definida sobre el espacio producto tensorial E s Er
i1 i2 ... is

con imagen en el cuerpo de escalares K (en nuestro caso R), de tal forma que para cada elemento
A de E s Er (con componentes Aji11 ij22 ... ... jr
is ) la aplicacion T le hace corresponder un escalar,
dado por el correspondiente producto de contraccion

jr Ai1 i2 ... is R
... is j1 j2 ... jr
T A = Tji11 ji22 ... (2.30)

donde hay suma respecto de todos los ndices.


Como puede verse, la aplicacion definida por este producto de contraccion es lineal respecto
de cada uno de los ndices, es decir, es multilineal. En algunos casos el elemento A sobre el que
aplicamos el tensor T estara dado por el producto tensorial de r vectores de E y s vectores del dual
E , de tal forma que la aplicacion T definida sobre v 1 v r v 1 v s es lineal respecto
de cada una de sus variables, todo esto hace que los tensores puedan definirse como aplicaciones
multilineales. Analogamente a como suceda con el producto matricial, el producto de contraccion
de dos tensores representa la composicion de las aplicaciones lineales definidas por cada uno de
ellos.

2.5. Criterios de tensorialidad


Dado un objeto presuntamente tensorial, es conveniente disponer de una serie de reglas practicas
que nos permitan determinar de una manera rapida si el objeto en cuestion es o no un tensor.
Las operaciones que hemos estudiado hasta ahora nos permiten identificar un comportamiento
tensorial en muchos casos. A continuacion incluimos un resumen con los criterios de tensorialidad
mas importantes.
Invariancia: Un objeto del tipo

T = Tji11 ji22 ...


... is
jr ei1 ei2 . . . eis e e . . . e
j1 j2 jr
(2.31)

es un tensor r-covariante s-contravariante si y solo si es invariante bajo cambios de base.

Ley de transformacion tensorial: El conjunto de coordenadas Tji11 ji22 ...


... is
jr , ligado a una base
determinada, corresponde a un tensor r-covariante s-contravariante si y solo si bajo el cambio
de base C (con inversa D C 1 ) se transforma de acuerdo a
p1 p2 pr
Tji11 ji22 ...
... is i1 i2 is q1 q2 ... qs
jr = Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr (2.32)
| {z } | {z }
r veces s veces

Suma y producto por escalares: Dados dos tensores del mismo tipo (T 1 y T 2 ), cualquier
combinacion lineal de ellos (T 1 + T 2 , con y escalares) genera un tensor del mismo tipo
que los de partida.
2.5. CRITERIOS DE TENSORIALIDAD 45

Producto tensorial: Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 -covariante


s2 -contravariante, su producto tensorial es un tensor de orden r1 + r2 -covariante s1 + s2 -
contravariante.

Producto de contraccion: Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 -


covariante s2 -contravariante, su producto de contraccion respecto de cualquier pareja de ndi-
ces (siempre uno de cada tipo) es un tensor de orden r1 + r2 1-covariante s1 + s2 1-
contravariante.

Permutacion de ndices: Dado un tensor, el objeto que resulta de permutar dos ndices del
mismo tipo es un tensor del mismo tipo que el tensor de partida. Por ejemplo, dado el tensor 2-
covariante Aij , el objeto con componentes Aji tambien es un tensor 2-covariante. Sin embargo,
en general el objeto que resulta de permutar dos ndices de distinto tipo no sera un tensor.

Criterio del cociente: Dada una relacion del tipo

A=C B (2.33)

donde representa un producto de contraccion de C con B respecto de alguna pareja (o


algunas parejas) de ndices, si A y B son dos tensores entonces el objeto C es necesariamente
un tensor, cuyo orden co- y contra-variante esta determinado por los de A y B y por el numero
de ndices de B que se hayan contraido.
Por ejemplo, en la relacion entre polarizacion y campo electrico P = E el hecho de que P y
E son vectores garantiza que es un tensor; analogamente, la relacion lineal entre deformacion
y tension en un material elastico nos garantiza que la constante de proporcionalidad es un
tensor, dado que las tensiones y las deformaciones son tensores.
El nombre criterio del cociente se debe a que el tensor C parece estar definido por la relacion
anterior como el cociente de los tensores A y B, sin embargo no existe una operacion
division de tensores.

A estas alturas debera haber quedado clara la gran utilidad de la notacion que hemos empleado
desde el principio para escribir componentes covariantes y contravariantes de tensores, no solamente
porque indica de manera inmediata el tipo de comportamiento bajo cambios de base, sino porque
permite identificar rapidamente expresiones tensoriales correctas e incorrectas. Por ejemplo, en la
expresion
R = g ij Rij = g ij g m Rijm
vemos automaticamente que R representa un escalar (suponiendo que Rijm y g ij son tensores), ya
que en ella todos los ndices estan contraidos correctamente (uno covariante con uno contravariante).
Por otra parte, la expresion
M = M

no define un tensor de ningun tipo, ya que representa la contraccion respecto de dos ndices del
mismo tipo.
La notacion que estamos empleando tambien facilita enormemente escribir la ley de transforma-
cion tensorial que cumplen las componente de un tensor de cualquier tipo. Por ejemplo, supongamos
que queremos escribir la ley de transformacion de las componentes del tensor de curvatura de Rie-
mann Rjki bajo el cambio de base Cji , para ello podemos aplicar la siguiente regla nemotecnica:
46 CAPITULO 2. TENSORES

1. En terminos de la nueva base los valores de las componentes de este tensor habran cambiado,
pero el tensor sigue siendo del mismo tipo. Denotamos las componentes en la nueva base por
i
Rjk

2. Dado que se trata de un objeto 1-contravariante 3-covariante, la ley de transformacion de


i
Rjk incluye a la matriz del cambio 3 veces y a su inversa 1 vez. La ley de transformacion que
estamos buscando tiene entonce el siguiente aspecto
i
Rjk :::: D C C C R

3. Cada una de las matrices C y D da lugar al correspondiente ndice co- y contra-variante de


i , por tanto escribimos
Rjk
i
Rjk :::: Di Cj Ck C R

en el lado
4. Finalmente, para obtener una expresion tensorial valida todos los ndices de R
derecho deben estar contraidos correctamente. Logicamente, el ndice contravariante de R

debe estar contraido con el subndice de la matriz inversa D, mientras que cada uno de los
ndices covariantes deben estar contraidos con los correspondientes superndices de cada una
de las matrices del cambio C. Esto nos lleva a
i
Rjk = Dai Cj Ck C R
a

que es la ley de transformacion buscada.


Esta regla nemotecnica permite escribir rapidamente cualquier ley de transformacion tensorial, sin
necesidad de memorizar la expresion general Ec. (2.32).

2.6. Tipos de tensores


Por ultimo vamos a cerrar este captulo con una breve clasificacion de tensores y algunas defi-
niciones. Los tensores suelen clasificarse de acuerdo al tipo de componentes que los describen o a
las reglas de simetra que cumplen estas componentes. Como veremos en los captulos siguientes,
es muy relevante saber con que tipo de tensor estamos trabajando. En lo referente a la simetra
esto es especialmente importante por dos motivos: por un lado la simetra de las componentes de
un tensor responde a la simetra de la magnitud fsica que describe; por otro lado conocer las rela-
ciones de simetra que cumplen las componentes de un tensor nos permitira realizar determinadas
manipulaciones algebraicas de manera muy rapida.

Tensores asociados
La contraccion con el tensor metrico gij (o con su inverso g ij ) produce la bajada (o subida
si contraemos con el inverso) del ndice que hemos contrado, tal y como ya vimos en el primer
captulo. Los tensores relacionados entre s por esta operacion se denominan tensores asociados.
En el primer captulo ya vimos un ejemplo de tensores asociados dado por las componentes co- y
contra-variantes de un vector (vi = gij v j , v i = g ij vj ). Esto se generaliza directamente a tensores de
cualquier orden, por ejemplo, la version puramente covariante del tensor de curvatura de Riemann
k .
esta dada por Rij = gik Rj
La operacion de subida y bajada de ndices es reversible, ya que al ser gij y g ij inversos uno
del otro, si volvemos a contraer con g ij (en caso de haber contrado antes con gij , y viceversa)
recuperamos las componentes de partida.
2.6. TIPOS DE TENSORES 47

Tipo de componentes
En referencia al tipo de componentes los tensores pueden clasificarse en:

Tensores contravariantes de rango q (o q-contravariantes): objetos tensoriales con q compo-


nentes contravariantes (y ninguna covariante).

Tensores covariantes de rango q (o q-covariantes): objetos tensoriales con q componentes


covariantes (y ninguna contravariante).

Tensores mixtos: objetos tensoriales con componentes de ambos tipos.

Simetra
Dependiendo de la simetra de las componentes tenemos

Tensores simetricos: un tensor es simetrico respecto a dos ndices del mismo tipo si sus com-
ponentes no cambian al permutar estos ndices.
Por ejemplo, un tensor 2-covariante Aij es simetrico si ij Aij = Aji . Analogamente, el tensor
metrico dual g ij es simetrico dado que ij g ij = g ji .

Tensores antisimetricos: un tensor es antisimetrico respecto a dos ndices del mismo tipo si
sus componentes cambian con un factor 1 al permutar estos ndices.
Por ejemplo, el tensor ij es antisimetrico respecto de sus ndices i y j si ij ij = ji .

Un tensor que solo tenga componentes de un tipo (o bien covariantes o bien contravarian-
tes) se dice completamente simetrico (respectivamente completamente antisimetrico) si sus
componentes son simetricas (respectivamente antisimetricas) respecto a la permutacion de
cualquier par de ndices.

Es muy facil demostrar que las propiedades de simetra o antisimetra anteriores son inde-
pendientes de la base que estemos empleando, es decir, son propiedades inherentes al tensor en
consideracion. Tambien es interesante ver que un tensor arbitrario de segundo orden, con compo-
nentes solo de un tipo (p. ej. Tij ), se puede descomponer como suma de un tensor simetrico y uno
antisimetrico por medio de
1 1
Tij = (Tij + Tji ) + (Tij Tji ) (2.34)
2 2
esta descomposicion tan sencilla tiene aplicaciones muy importantes en fsica. Es evidente que dado
un tensor de orden superior, podemos hacer una descomposicion similar para cualquier pareja de
ndices del mismo tipo.
Las operaciones de permutacion de ndices solo estan bien definidas desde el punto de vista
tensorial (es decir, solo son independientes de la base) cuando se intercambian ndices del mismo
tipo. En particular, la matriz Aij correspondiente a una aplicacion lineal puede ser simetrica respecto
de una determinada base (Aij = Aji ) y no serlo respecto a otra base distinta.
Tambien es facil demostrar que el resultado de contraer 2 ndices simetricos con 2 ndices
antisimetricos es necesariamente nulo (es decir, si Aij = Aji y ij = ji , entonces Aij ij = 0).
Como consecuencia, en la contraccion de un tensor 2-contravariante cualquiera T ij (con un tensor )
2-covariante antisimetrico, solo contribuye la parte antisimetrica de T ij , dada por 21 T ij T ji .
48 CAPITULO 2. TENSORES

Definiciones adicionales
Aparte de los tipos de tensores definidos hasta ahora, en la practica es muy usual emplear la
siguiente terminologa:

Tensores Cartesianos: Si nos restringimos a espacios Eucldeos y al uso de bases ortonormales


(en particular las coordenadas Cartesianas habituales), encontramos que el tensor metrico es
la identidad (gij = g ij = ji ) y por tanto las componentes co- y contra-variantes de cualquier
tensor coinciden, de tal forma que no es necesario establecer ninguna distincion entre ellas. Los
tensores definidos en este contexto se denominan tensores cartesianos, a este tipo pertenecen
los tensores empleados normalmente en ingeniera (elasticidad, mecanica de fluidos).
Dado que en estos tensores no hace falta distinguir entre componentes co- y contra-variantes,
es habitual denotar todas sus componentes por medio de sub-ndices indistintamente.

Tensores isotropos: Dentro de los tensores Cartesianos, se denominan tensores isotropos a


aquellos cuyas componentes no varan al rotar los ejes, es decir, al realizar un cambio de
base ortogonal con det C = 1. El numero de tensores isotropos que existe depende del rango
tensorial que consideremos, de acuerdo a la siguiente tabla:

Todos los tensores de rango 0 son isotropos.


No existen tensores isotropos de orden 1;
La delta de Kronecker (ij , ji , ij ) es el unico tensor isotropo de orden 2. De estos 3
objetos se puede ver que la version 1-covariante 1-contravariante es isotropa no solo ante
cambos de base ortogonales en espacios Eucldeos, sino ante cualquier cambio de base
independientemente de la metrica.
El smbolo alternante de Levi-Civita es el unico tensor isotropo de orden 3 (dejamos
este objeto para el captulo siguiente, dado que en realidad es un pseudotensor).
Los unicos tensores isotropos de orden 4 son los siguientes

ij k ik j i jk

El numero de tensores isotropos con rango tensorial q (aq ) va aumentando de acuerdo a


la siguiente regla de recurencia
q1
aq = (2aq1 + 3aq2 )
q+1
con a0 = 1 y a1 = 0.

Los tensores isotropos de orden 4 se emplean para definir el tensor de elasticidad del que
hablabamos al comienzo del captulo. En el caso de un medio isotropo el tensor de elasticidad debe
ser invariante bajo rotaciones. El tensor isotropo de orden 4 mas general que se puede formar es

cijk = ij k + ik j + i jk

Como los tensores de tensiones y deformaciones son simetricos, de la relacion de proporcionalidad


entre tension y deformacion (ij = cijk ek , escribimos todo con subndices dado que estamos
manejando tensores Cartesianos) deducimos las relaciones cijk = cijk y cijk = cjik , de donde
deducimos la condicion = . Por tanto, el tensor de elasticidad de un medio isotropo depende
2.7. PROBLEMAS 49

de solo 2 parametros. En terminos del modulo de Young E y el cociente de poisson , el tensor de


elasticidad puede escribirse como
[ ]
E 1
cijk = ij k + (ik j + i jk )
1 + 1 2 2

Aparte de los anteriores tensores isotropos es interesante darse cuenta de que el tensor nulo de
rango tensorial arbitrario tambien es isotropo. Consideremos el tensor nulo de rango (r)-covariante
(s)-contravariante, por definicion todas sus componentes respecto de la base canonica son nulas;
pero como las leyes de transformacion de las componentes de tensores son lineales, si todas las
componentes de un tensor son nulas respecto de una base, entonces tambien seran nulas respecto
de cualquier otra base. Esto tiene la siguiente consecuencia importante en fsica: para cualquier
ecuacion que este escrita en forma tensorial correctamente, si esta ecuacion se cumple en una base
dada, entonces tambien se cumplira en cualquier otra base. Por tanto los tensores proporcionan el
marco adecuado para escribir ecuaciones fsicas que sean validas independientemente del sistema
de referencia empleado.

2.7. Problemas
P.2.1. Calcular el valor del escalar gii en un espacio vectorial con dimension n y metrica dada por el
tensor gij .

P.2.2. Demostrar que si entre 2 vectores 1-contravariantes (x e y) existe una relacion lineal del tipo
y = Ax, entonces A es un objeto 1-covariante 1-contravariante.

P.2.3. Demostrar que en el caso de 2 vectores 1-covariantes (x e y), dada la relacion y = Ax tambien
implica que A es un objeto 1-covariante 1-contravariante.

P.2.4. Demostrar que la contraccion de ndices (uno de cada tipo) es una operacion con comporta-
miento tensorial bien definido.

P.2.5. Demostrar que dado un tensor arbitrario, el objeto que resulta de la contraccion de dos ndices
del mismo tipo, en general, no es un tensor.
k
P.2.6. Demostrar que si Rj k
es un tensor 1-contravariante 3-covariante, entonces Rij = gik Rj
es un tensor 4-covariante.

P.2.7. Demostrar que el producto de contraccion tiene comportamiento tensorial bien definido.

P.2.8. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada
base son simetricas, entonces tambien lo son respecto de cualquier otra base.

P.2.9. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada
base son simetricas, entonces tambien lo son respecto de cualquier otra base.

P.2.10. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada
base son antisimetricas, entonces tambien lo son respecto de cualquier otra base.

P.2.11. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada
base son antisimetricas, entonces tambien lo son respecto de cualquier otra base.
50 CAPITULO 2. TENSORES

P.2.12. Demostrar que el resultado de contraer 2 ndices simetricos con 2 ndices antisimetricos es
necesariamente nulo.

P.2.13. Dados los tensores 2-contravariante T ij y 2-covariante Aij , demostrar que si Aij = Aji enton-
ces
1 ( ij )
T ij Aij = T + T ji Aij
2
P.2.14. En el caso anterior, demostrar que si Aij es antisimetrico entonces
1 ( ij )
T ij Aij = T T ji Aij
2

P.2.15. El tensor 2-covariante Tij define una aplicacion de E en E , tal que para un vector v E le
hace corresponder un vector w E , dado en componentes por Tij v j = wi . Sabiendo que el
tensor inverso (T 1 )ij se define como la aplicacion inversa a la anterior, calcule las compontes
del tensor inverso (T 1 )ij .

P.2.16. Demostrar que las versiones co- y contra-variantes de la delta de Kronecker (ij y ij ) se
comportan como tensores isotropos solo bajo cambios de base ortogonales.

P.2.17. Demostrar que las componentes de ji son invariantes bajo cualquier cambio de base.

2.7.1. Soluciones a problemas seleccionados (Tema 2)


P.2.1. Por definicion el objeto gij es la delta de Kronecker (gik g kj = gij = ij ), por tanto los n
elementos de la diagonal (gii ) son iguales a la unidad, y al tomar la suma encontramos la
dimesionalidad del espacio: n.

P.2.2. Comenzamos escribiendo en componentes la relacion indicada entre los vectores x e y

y i = A(i, j)xj

donde suponemos que se aplica el convenio de suma de Einstein para el ndice mudo j. En
esta expresion hemos escrito las componentes i, j de A como A(i, j), y no como sub- o
super-ndices, ya que de momento no sabemos cual de las dos posibilidades (sub/super) les
corresponde.
Si hacemos un cambio de base con matriz del cambio C, la relacion anterior en la base nueva
se escribira de manera analoga:
y i = A(i, j)xj
siendo y i , A(i, j) y xj las componentes de y, A y x en la nueva base.
Sabemos que las componentes xi e y i son contravariantes, de modo que la primera de las
relaciones anteriores se puede escribir como

Cpi y p = A(i, j)Cqj xq

siendo C la matriz que relaciona la base de partida con la base nueva. Si multiplicamos ahora
por la matriz inversa del cambio de base (D) encontramos (intercambiando los nombres de
los ndices i por p, j por q y viceversa)

Dpk Cip y i = Dpk A(p, q)Cjq xj


2.7. PROBLEMAS 51

Por definicion Dpk Cip = ik , por tanto

y i = Dpi Cjq A(p, q)xj

comparando con la relacion de arriba esto implica que

A(i, j) = Dpi Cjq A(p, q)

de modo que el primer ndice de A es contravariante y el segundo es covariante

A(i, j) = Aij

y por tanto A es un objeto 1-covariante 1-contravariante como queramos demostrar.

P.2.3. Para realizar este ejercicio repetimos los pasos del ejercicio anterior, partimos de las relaciones
y = Ax expresadas en la base antigua y en la base nueva (relacionadas entre s por el cambio
de base C)
yi = A(i, j)xj , yi = A(i, j)xj
En este caso las componentes xi e yi son covariantes, por tanto

Dip yp = A(i, j)Djq xq

multiplicando por la matriz C e intercambiando los nombre de los ndices como en el ejercicio
anterior deducimos
yi = Cip Dqj A(p, q)xj
comparando con yi = A(i, j)xj llegamos a A(i, j) = Cip Dqj A(p, q), de modo que en este caso
el primer ndice es covariante y el segundo contravariante

A(i, j) = Aji

lo cual corresponde a un objeto 1-covariante 1-contravariante como queramos demostrar, la


diferencia respecto al ejercicio anterior es que el comportamiento con/contra de los ndices de
A de cada ejercicio es el inverso del otro.
mp
P.2.4. Por simplicidad supondremos un tensor 2-covariante 2-contravariante con componentes Trs .
Si realizamos ahora la contraccion de dos de sus ndices (por ejemplo el ultimo subndice s y
el ultimo superndice p), obtenemos el objeto

n
Am m
r = Tr =
m
Tr
=1

(donde hemos hecho explcito el convenio de suma de Einstein, y n es la dimension del espacio
vectorial). Para que tenga un comportamiento tensorial bien definido debera transformarse
siguiendo la ley de transformacion de un tensor de orden 1-covariante 1-contravariante, esto
es:
Aik = Ckr Dm
i
Am
r

Como el tensor T tiene un comportamiento tensorial bien definido (premisa de partida), se


transforma, segun el cambio de base C (con inversa D C 1 ), conforme a la ley tensorial:
ij
Tkl = Ckr Cls Dm
i
Dpj Trs
mp
52 CAPITULO 2. TENSORES

Ahora podemos contraer los ndices j y l en el tensor transformado:


i m
Tk = Ckr Cs Dm
i
Dp Trs
mp
= ps Ckr Dm
i mp
Trs = Ckr Dm
i
Tr
donde hemos tenido en cuenta que Cs Dp = ps . Finalmente comprobamos que, efectivamen-
m
te, el tensor contrado Tr se transforma siguiendo la ley tensorial de un tensor de orden
1-covariante 1-contravariante. Ahora es inmediato generalizar este argumento a un tensor
general r-covariante s-contravariante con componentes Tji11ji22...j
...is
r
.
P.2.5. Seguiremos un razonamiento similar al empleado en el problema P.2.4. Por simplicidad supon-
mp
dremos un tensor 2-covariante 2-contravariante con componentes Trs . Si realizamos ahora la
contraccion de dos ndices del mismo tipo (por ejemplo los subndices r y s), obtenemos un
objeto
n
mp mp mp
A = T = T
=1
para que Amp tenga un comportamiento tensorial bien definido debera transformarse siguien-
do la ley de transformacion de un tensor de orden 2-contravariante, esto es:
Aij = Dm
i
Dpj Amp
Partimos de nuevo de la ley de transformacion del tensor T :
ij
Tkl = Ckr Cls Dm
i
Dpj Trs
mp

y contraemos los ndices covariantes k y l en el tensor transformado:


ij
T = Cr Cs Dm
i
Dpj Trs
mp

Comprobamos que no se transforma como un tensor.


P.2.6. Para demostrar que es un tensor 4-covariante hay que demostrar que se transforma siguiendo
la ley:
Rklmn = Cki Clj Cm

Cn Rij
k
Para demostrarlo sustituimos en esta relacion Rij = gik Rj t
y Rklmn = gkt Rlmn
t
gkt Rlmn = Cki Clj Cm
s
Cn gis Rj
Ahora sabemos que gkt = Cki Cth gih , de modo que
Cki Cth gih Rlmn
t
= Cki Clj Cm
s
Cn gis Rj
k
Ahora podemos utilizar la premisa del enunciado que dice que Rj es un tensor 1-contravariante
3-covariante, y que por lo tanto se transforma siguiendo la ley:
t
Rlmn = Clj Cm
t s
Cn Ds Rj
Sustituyendo esta relacion obtenemos
Cki Cth gih Clj Cm Cn Ds Rj = Cki Clj Cm
t s s
Cn gis Rj
Por ultimo, Cth Dst = sh de modo que
Cki gis Clj Cm Cn Rj = Cki gis Clj Cm
s s
Cn Rj
Y vemos que ambos miembros de la igualdad son iguales, de modo que queda demostrado.
2.7. PROBLEMAS 53

P.2.7. El razonamiento es similar al empleado en los problemas P.2.4 y P.2.5. Por simplicidad supon-
dremos el producto de contraccion de dos tensores 2-covariante 2-contravariante con compo-
nentes Aij mn
kl y Brs , aunque el argumento puede extenderse a dos tensores de rangos arbitrarios.
El producto de contraccion de los dos tensores respecto de los ndices l y n tiene la forma
ijm
Ckrs = Aij m
k Brs

y genera un tensor de rango 3 covariante 3-contravariante. Cuando las componentes de los


tensores estan referidas a otra base del espacio vectorial, tendra la forma:
ijm
Ckrs = Aij m
k Brs

Para que este producto tenga un comportamiento tensorial bien definido debe cumplir la ley
de transformacion tensorial

C = Ck Cr Cs Di Dj Dm
ijm
Ckrs

Para demostrar que es as, utilizaremos el hecho de que los objetos A y B tienen un compor-
tamiento tensorial bien definido, esto es, que son tensores.
Sustituiremos en esta expresion los correspondientes productos de contraccion arriba indica-
dos:
x k r s ij
A my
x B = C C C Di Dj Dm Aky Brs

A continuacion reemplazamos la ley de transformacion de los tensores que participan en el


producto, prestando atencion en no repetir ndices mudos y as evitar confusiones:
k z ij
A
x = C Cx Di Dj Akz

x
B = Cr Cs Dm
x mw
Dw Brs
Para obtener

Ck Cxz Di Dj Aij r s x mw k r s ij my
kz C C Dm Dw Brs = C C C Di Dj Dm Aky Brs

Reorganizando trminos y teniendo en cuenta que Cxz Dw


x = z obtenemos
w

Ck Cr Cs Di Dj Dm
z ij mw
w Akz Brs = Ck Cr Cs Di Dj Dm
ij my
Aky Brs

Observamos que tenemos la misma expresion a ambos lados de la ecuacion ya que


z ij mw
w Akz Brs = Aij my
ky Brs

De modo que queda demostrado.

P.2.8, P.2.10. Partimos del tensor 2-covariante Aij . Dado un cambio de base con matriz de cambio C las
componentes de A en la nueva base son

Aij = Cip Cjq Apq

intercambiando los nombres de los ndices, i por j, p por q y viceversa encontramos

Aji = Cjq Cip Aqp


54 CAPITULO 2. TENSORES

pero por hipotesis Apq = Aqp (+1 para el caso simetrico (P.2.8) y 1 para el caso anti-
simetrico (P.2.10)), entonces
Aji = Cip Cjq Apq
es decir
si Aij = Aji entonces Aij = Aji
si Aij = Aji entonces Aij = Aji
como queramos demostrar.

P.2.9, P.2.11. En este caso tenemos el tensor 2-contravariante Aij . Dado el cambio de base C las compo-
nentes de A en la nueva base son
Aij = Dpi Dqj Apq
intercambiando los nombres de los ndices, i por j, p por q y viceversa, como antes, encon-
tramos
Aji = Dqj Dpi Aqp
por hipotesis Apq = Aqp (+1 para el caso simetrico (P.2.9) y 1 para el caso anti-simetrico
(P.2.11)), entonces
Aji = Dpi Dqj Apq
es decir
si Aij = Aji entonces Aij = Aji
si Aij = Aji entonces Aij = Aji
como queramos demostrar.

P.2.12. El enunciado no indica si se refiere a 2 ndices de cada tipo de un mismo tensor o de 2 tensores
distintos, veamos esta cuestion en primer lugar. Si se trata de 2 tensores distintos, pongamos
Aij y Bij , para realizar el producto de contraccion construiramos primero el tensor producto
ij
tensorial Ck = Aij Bk y posteriormente contraeramos los 2 superndices con los 2 subndices,
para ello hacemos (p. ej.) i = k = p (introducimos el ndice mudo p) y j = = q (introducimos
pq
el ndice mudo q), de modo que calculamos Cpq . Tambien hubieramos podido contraer i con
pq
y j con k, en ese caso el resultado es Cqp . Por el contrario, si se trata de 2 ndices de cada
ij
tipo del mismo tensor, entonces partimos directamente del objeto Ck (saltandonos el paso de
generar este tensor a partir de 2 tensores Aij y Bij ), de modo que en ambos casos el resultado
es el mismo.
pq
Consideramos ahora el tema de la simetra. Calculamos Cpq suponiendo que los 2 super-
pq
ndices son simetricos y los sub-ndices antisimetricos. En primer lugar, como en Cpq tanto
p como q son ndices mudos los podemos cambiar de nombre, intercambiamos entonces los
nombres de p y q
pq qp
Cpq = Cqp
pq
(la expresion anterior representa la suma de Cpq respecto a p y respecto a q, de modo que
los nombres que demos a dichos ndices son irrelevantes). Ahora tenemos en cuenta que los
superndices son simetricos, mientras que los subndices son antisimetricos, con esto deducimos
pq
Cpq qp
= Cqp pq
= Cqp = Cpq
pq

pq pq pq
es decir Cpq = Cpq (a = a), de donde deducimos Cpq = 0.
2.7. PROBLEMAS 55

pq
Si contraemos los ndices de la otra forma posible, repitiendo estos pasos con Cqp llegamos a
pq
Cqp = 0, de manera totalmente analoga.
P.2.13. Se trata de un producto de contraccion de dos ndices, donde los ndices del tensor Aij son
simetricos. Lo primero que haremos sera descomponer el tensor T ij como suma de un tensor
simetrico y uno antisimetrico:
1 ( ij ) 1 ( ij ) ij ij
T ij = T + T ji + T T ji = Tsim + Tantisim
2 2
Sustituyendo tenemos que:
( )
ij ij
T ij Aij = Tsim + Tantisim Aij

Del ejercicio anterior sabemos que la contraccion de dos ndices simetricos con dos ndices
ij
antisimetricos es nula, por lo que Tantisim Aij = 0 y
ij 1 ( ij )
T ij Aij = Tsim Aij = T + T ji Aij
2
que es lo que queramos demostrar.
P.2.16. Hemos visto que los tensores isotropos son aquellos objetos cuyas componentes no varan al
realizar un cambio de base ortogonal. Consideremos el caso covariante, su transformacion
bajo el cambio de base de matriz C es
ij = Cik Cjl kl
Operando con las componentes tenemos

n
ij = Cik Cjk
k=1

Por otro lado, tenemos que


(C 1 )ik Cjk = ji
como el cambio de base es ortogonal, es decir, (C 1 )ij = (C T )ij = Cij , en componentes
tendremos
n
n
1 i k 1 i k
(C )k Cj = (C )k Cj = Cik Cjk = ji
k=1 k=1

Con esto se demuestra que las componentes del tensor ij son iguales a las componentes del
tensor ji , las cuales a su vez son las mismas que las del tensor ij . La demostracion para la
delta de Kronecker doble contravariante se realiza de forma similar, pero utilizando la matriz
inversa del cambio de base, D, en lugar de C.
Este es uno de los pocos ejemplos en los que la notacion matricial simplifica la demostracion,
pues la expresion
ij = Cik Cjl kl
puede escribirse en forma matricial de la forma
[] = [C]T [][C]
Como [] = 1 donde 1 es la matriz identidad, y [C]T = [C 1 ] llegamos al resultado
[] = 1
56 CAPITULO 2. TENSORES

P.2.17. Tenemos que demostrar que las componentes del tensor ji dado por la transformacion

ji = Dki Cjl lk

son
1 si i = j
ji =
0 si i =
j
En efecto, las componentes de la expresion anterior se simplifican a

ji = Dki Cjk = ji

2.8. Bibliografa
Para profundizar sobre la aparicion de tensores de orden superior en fsica se recomienda el
libro de Feynman [14, 15] (volumen 2 temas 31, 38, 39 y 42), la introduccion que hemos presentado
aqu se basa en cierta medida en la de Feynman. Para las aplicaciones del calculo tensorial en
mecanica de fluidos se recomienda el libro de Aris [18]. Ademas de los anteriores, para escribir este
captulo se han consultado principalmente los textos de Synge y Schild [13], Lichnerowicz [10] y
Bowen y Wang [2].
Captulo 3

Densidades tensoriales

Existen magnitudes perfectamente bien definidas desde el punto de vista matematico que, sin
embargo, no cumplen la ley tensorial de transformacion bajo cambios de base que hemos estudiado
hasta ahora (ver Ec. (2.1)). Un ejemplo muy sencillo es el producto vectorial de dos vectores
en R3 , cuyas componentes se transforman de acuerdo a la ley tensorial de objetos 1-covariantes,
pero multiplicada por el signo (+1 o 1) del determinante de la matriz del cambio de base. En este
captulo veremos con todo detalle como se define y como se transforma bajo cambios de coordenadas
el producto vectorial de dos vectores. Los objetos con comportamiento tensorial bajo cambios de
base con determinante positivo, pero que siguen una ley de transformacion tensorial con un factor
1 extra si el determinante del cambio de base es negativo, se denominan tensores axiales, y con
frecuencia se denominan tensores polares a los verdaderos tensores, para distinguirlos de los axiales.
El producto vectorial de dos vectores y el rotacional de un campo vectorial en R3 son ejemplos
importantes de vectores axiales. En general se denominan pseudo-tensores a los objetos que se
transforman bajo cambios de coordenadas siguiendo una ley de transformacion tensorial, pero con
alguna correccion, generalmente dada por algun factor extra, como p. ej. el signo del determinante
de la matriz del cambio de base en el caso de los tensores axiales, o el determinante de la matriz
del cambio de base elevado a alguna potencia en el caso de las densidades tensoriales.
Veamos otro ejemplo de comportamiento ligeramente distinto del comportamiento tensorial que
hemos visto hasta ahora. Consideremos el caso del determinante del tensor metrico (det (gij )), que
a partir de ahora denotaremos sencillamente por g det (gij ):
Como se transforma el determinante del tensor metrico bajo cambios de coordenadas?
De la ley de transformacion de las componentes del tensor metrico bajo el cambio de base C

gij = Ci Cj g (3.1)

y de las propiedades de los determinantes deducimos inmediatamente

det (gij ) = |C|2 det (g ) , es decir g = |C|2 g (3.2)

donde |C| denota el determinante de la matriz del cambio C. Esto indica que g no es exactamente
un escalar, ni tampoco un tensor de ningun tipo al menos segun las leyes de transformacion que
hemos visto hasta ahora, a menos que |C| = 1, es decir, si el cambio de base es ortogonal, en cuyo
caso g se comporta como un escalar.
Otro ejemplo de este tipo de comportamiento es el que muestra la densidad de cualquier medio
material, descrita por la funcion = (x, y, z) (masa por unidad de volumen en el punto de

57
58 CAPITULO 3. DENSIDADES TENSORIALES

coordenadas x, y, z), o similarmente la densidad de cualquier otra magnitud fsica (como p. ej.
energa o momento lineal) que resulta al considerar la cantidad de una cierta magnitud extensiva
que existe en una region del espacio por unidad de volumen. En principio podra parecer que la
densidad debera ser un escalar, sin embargo esto no es cierto, al menos en el sentido estricto del
termino. Supongamos un observador que mide la densidad de un medio = dm/dV de acuerdo a
un determinado sistema de coordenadas x1 , x2 , x3 , y otro respecto a otro x1 , x2 , x3 ; las medidas de
estos observadores no coincidiran si los tamanos de los correspondientes elementos diferenciales de
volumen dV y dV no son iguales, por tanto no es invariante bajo cualquier cambio de coordenadas,
es decir, no es un escalar. En lo que necesariamente deberan coincidir ambos observadores es en la
cantidad de masa contenida en cualquier volumen finito, dada por

m= 1 2 3
(x , x , x ) dV = (x1 , x2 , x3 ) dV
V V

Sustituyendo en esta relacion la regla para cambios de coordenadas bajo integrales multiples, en-
contramos que la ley de transformacion de la densidad bajo un cambio de coordenadas es
[ ( )]
1 2 3 xi
(x , x , x ) = abs det (x1 , x2 , x3 )
xj
( i)
x
donde det x j es el determinante jacobiano del cambio de coordenadas. El valor absoluto del
determinante jacobiano representa precisamente la variacion de tamano del elemento diferencial de
volumen al pasar de un sistema de coordenadas al otro
( )
xi dV
abs det = .
xj dV

Ante una transformacion ortogonal no hay cambio en el elemento de volumen y en ese caso
la densidad se transforma como un escalar, pero ante un cambio de coordenadas no ortogonal la
densidad no se comporta exactamente como un escalar, como lo hace la masa total, sino que se
multiplica por el valor absoluto del determinante de la matriz del cambio. Las magnitudes que
cumplen esta ley de transformacion se denominan densidades escalares. A todo esto, en el ejemplo
anterior hemos mencionado que bajo un cambio de coordenadas la matriz del cambio de base
esta dada por la matriz Jacobiana de la transformacion de coordenadas; en el captulo proximo
veremos con todo detalle el origen y significado de esta afirmacion, cuando estudiemos el tema de
los campos tensoriales.
El ejemplo anterior no es en absoluto excepcional, en fsica hay multitud de magnitudes que se
definen como la integral de la correspondiente densidad en un dominio espacial determinado. En
todos esos casos encontraramos un comportamiento similar bajo transformaciones de coordena-
das, de modo que parece conveniente generalizar la anterior ley de transformacion de magnitudes
tensoriales (Ec. (2.1)) para incluir tambien estos tipos de comportamiento.
De acuerdo a los ejemplos anteriores vemos que en general hay dos factores extra que debemos
incluir para generalizar la ley de transformacion Ec. (2.1). En primer lugar hemos visto que en
algunos casos aparece un factor extra dado por det C elevado a una cierta potencia w; en segundo
lugar, en algunas ocasiones aparece un factor extra dado por el signo de det C. Dependiendo del
tipo de factor extra que debamos anadir a la ley de transformacion tensorial Ec. (2.1) tenemos estos
casos:
3.1. LEY DE TRANSFORMACION DE DENSIDADES TENSORIALES GENERALES 59

Los objetos cuyas componentes se transforman bajo un cambio de base segun una ley ten-
sorial multiplicada por el determinante de la matriz del cambio elevado a una potencia w se
denominan pseudotensores o densidades tensoriales de peso w, de modo que los verdaderos
tensores corresponden a densidades tensoriales de peso nulo. En algunos textos se denomina
tensores absolutos a los tensores y tensores relativos de peso w a los pseudotensores de pe-
so w. Claramente los pseudotensores se transforman bajo rotaciones de los ejes (cambios de
base con |C| = 1) como verdaderos tensores, de modo que si nos restringimos a este tipo de
cambios de coordenadas no observaremos diferencias entre tensores absolutos y relativos.

Por otra parte, los objetos cuyas componentes se transforman siguiendo una ley tensorial
multiplicada por el signo del determinante del cambio de base se denominan pseudo-tensores
axiales (con frecuencia sencillamente tensores axiales), mientras que los verdaderos tensores
se denominan tensores polares.

3.1. Ley de transformacion de densidades tensoriales generales


Con el objeto de incluir tambien comportamientos bajo cambios de base como los que acabamos
de mencionar, generalizamos la anterior ley de transformacion bajo cambios de base (Ec. (2.1)) por
medio de la siguiente definicion:

Se denomina densidad tensorial (tambien tensor relativo o pseudo-tensor) r-covariante s-


contravariante de peso w y paridad ( = 1) a cualquier objeto descrito respecto a una
base del espacio producto tensorial por medio de las componentes Tji11 ji22 ...
... is
jr , tales que bajo el
1
cambio de base C (con inversa D = C ) se transforman segun la ley
w p1 p2 pr
Tji11 ji22 ...
... is
jr = |C| Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr
i1 i2 is q1 q2 ... qs
(3.3)
| {z } | {z }
r veces s veces

donde la paridad puede tomar los valores 1 o sign |C|, siendo |C| el determinante de la
matriz del cambio de base.

Dependiendo del valor del coeficiente , se denominan tensores polares a aquellos para los que
= 1 independientemente del cambio realizado, y tensores axiales a aquellos para los que
es igual al signo del determinante de C, que denotaremos a partir de ahora por s

|C|
s sign |C| = (3.4)
abs |C|

Claramente los tensores absolutos son tensores polares ( = 1) de peso w = 0. Por otra parte,

es facil ver que de acuerdo a esta definicion g es un (pseudo-) tensor axial de peso 1 y rango
tensorial nulo, es decir, una densidad escalar.
Para hacerse una idea intuitiva del significado de los parametros de paridad y peso, de manera
algo imprecisa podemos decir que dado un pseudo-tensor con peso w = 0, realmente es la integral
de este objeto en un cierto dominio lo que define un tensor absoluto, de tal forma que el peso de
la densidad tensorial esta relacionado con la dimensionalidad del dominio donde debe integrarse
esta para obtener un tensor absoluto. En cuanto a la paridad, el valor = 1 o s depende de si las
componentes del objeto que estamos describiendo se multiplican por 1, o no, bajo un cambio con
determinante negativo, es decir, al cambiar la orientacion de la base.
60 CAPITULO 3. DENSIDADES TENSORIALES

Los comportamientos de tipo pseudo-tensorial como los que acabamos de definir son muy fre-
cuentes en la practica. De hecho, de todas las magnitudes fsicas con comportamiento tensorial bien
definido aproximadamente la mitad son pseudotensores. Normalmente las denominaciones formales
de este tipo de objetos (pseudo-tensores, densidades tensoriales, etc.) se emplean cuando se quiere
recalcar las diferencias de comportamiento entre tensores absolutos y relativos o entre tensores po-
lares y axiales, pero en el lenguaje coloquial es bastante frecuente omitir este nivel de detalle para
simplificar la nomenclatura, de modo que suele denominarse sencillamente como tensor a cualquier
objeto cuyas componentes se transforman de acuerdo a la ley de transformacion generalizada Ec.
(3.3), quedando claro por el contexto si nos referimos a un tensor axial, a una densidad tensorial,
o a un tensor absoluto. Por ejemplo, en la practica es muy frecuente referirse a la funcion densidad
como un escalar en lugar de una densidad escalar. En el estudio de campos electromagneticos es
frecuente referirse al campo electrico como el vector E y al campo magnetico como el vector B,
omitiendo que en realidad E es un vector polar y B un vector axial.
Cuando se estudia calculo tensorial y geometra diferencial es muy importante comprender los
distintos tipos de comportamiento que pueden presentar estos objetos. No obstante, en la practica
los cambios de base mas frecuentes corresponden a simples rotaciones, con |C| = +1, en cuyo caso
todos estos comportamientos colapsan con el de los tensores absolutos (de hecho, en la practica es
raro emplear cambios de base con sign |C| = 1).

3.1.1. Producto de densidades tensoriales


Dadas dos densidades tensoriales A y B (rA -covariante sA -contravariante y rB -covariante sB -
contravariante respectivamente), con paridades A y B y pesos wA y wB , el comportamiento bajo
cambios de base de su producto tensorial esta dado por
i1 i2 ... is i1 i2 ... is pr is
Aj1 j2 ... jrA Bj1 j2 ... jrB = A B |C|wA +wB Cjp11 Cjp22 . . . Cjr A Dqi11 Dqi22 . . . DqsAA
A B
| {z A
} | {z }
rA veces sA veces
pr is q1 q2 ... qs q1 q2 ... qs
Cjp11 Cjp22 . . . Cjr B Dqi11 Dqi22 . . . DqsBB Ap1 p2 ... prAA Bp1 p2 ... prBB (3.5)
| {z B
} | {z }
rB veces sB veces

La paridad del producto tensorial es, por tanto, el producto de las paridades, mientras que el
peso es la suma de los pesos. Tambien vemos que esta regla de composicion no cambia si realizamos
la contraccion de cualquier par de ndices en el producto tensorial de A por B. Como consecuencia, el
producto tensorial y/o de contraccion de dos tensores de pesos opuestos genera un tensor absoluto,
el producto (tensorial y/o de contraccion) de dos tensores de paridad opuesta genera un tensor
axial, mientras que el producto de dos tensores con la misma paridad genera un tensor polar,
independientemente de la paridad de los tensores de partida, tal y como resumimos en la tabla 3.1.

Por otra parte el producto vectorial de dos vectores no cumple esta regla, ya que el producto
vectorial de dos vectores no involucra exclusivamente a los dos vectores considerados, sino que es
la contraccion del producto tensorial de estos vectores multiplicado tensorialmente por un tercer
factor, dado por el tensor alternante de Levi-Civita, como veremos mas adelante en este captulo.

3.2. Espacios orientables


La paridad de un tensor ( = 1, o s) esta relacionada con el comportamiento de las compo-
nentes del tensor bajo cambios en la orientacion de la base del espacio vectorial al que pertenece.
3.2. ESPACIOS ORIENTABLES 61

Tensor B
axial polar
axial polar axial
Tensor A
polar axial polar

Cuadro 3.1: Paridad del tensor dado por el producto tensorial o de contraccion (respecto de
cualquier par de ndices) de dos tensores A y B.

En la mayora de los casos los espacios vectoriales con los que trabajamos son orientables. Esto
esta relacionado con la topologa del espacio y significa que en general no es posible transformar
cualquier objeto definido en este espacio en su imagen especular mediante rotaciones y traslaciones
exclusivamente. Por ejemplo, R3 es un espacio orientable dado que no es posible hacer coincidir
la mano derecha con la izquierda por medio de traslaciones y rotaciones, sino que es necesario
introducir al menos una reflexion. En el analisis de curvas cerradas planas la orientabilidad de R2
nos permite distinguir los dos sentidos de giro posibles. Por otra parte, en el analisis de superficies
en 3 dimensiones la orientabilidad de R3 nos permite distinguir las dos formas posibles de definir
la normal a cualquier superficie (hacia fuera o hacia dentro si la superficie es cerrada), y en
general nos permite distinguir un objeto de su imagen especular, en el caso en que esta no pueda
superponerse con aquel. Los objetos que cumplen esta propiedad se llaman quirales, un cubo no
es quiral porque puede superponerse con su imagen especular, pero la mano derecha y la izquier-
da s son quirales. La existencia de objetos quirales tiene consecuencias muy importantes en el
mundo fsico. Por ejemplo, en bioqumica es frecuente que las moleculas quirales (denominadas
enantiomeros) presenten comportamientos biologicos totalmente distintos.
El ejemplo clasico de espacio no orientable es la banda de Moebius, dada por la superficie
que se obtiene al pegar los extremos opuestos de una banda despues de girar uno de los extremos
180 grados respecto al eje longitudinal de la banda (Fig. 3.1). Si consideramos el vector normal a
una banda de Moebius en un punto cualquiera, vemos que al desplazar este vector a lo largo de
la superficie recorriendo el bucle una vez encontramos el vector de partida multiplicado por 1
(encontramos este resultado al recorrer el bucle un numero impar de veces, y recuperamos el vector
de partida al recorrer el bucle un numero par de veces). Esto implica que la banda de Moebius tiene
una unica cara (y un unico borde), y por tanto no es orientable. En un espacio con estructura similar
a la banda de Moebius cualquier objeto es indistinguible de su imagen especular, ya que basta con
hacer que dicho objeto recorra un cierto ciclo para hacerlo coincidir con su imagen especular. Esto
no es posible en espacios orientables.

3.2.1. Bases ordenadas y orientacion


Hasta ahora nos hemos referido en muchas ocasiones a una base cualquiera ({ei }ni=1 ) de un
espacio vectorial, sin prestar mayor atencion al orden con el que numeramos los vectores de la
base. En un espacio vectorial orientable el orden de los vectores de la base es importante, ya que
define la orientacion de la base. Dadas dos bases ordenadas de un determinado espacio vectorial
orientable, se dice que estas bases tienen la misma orientacion si la matriz que pasa de una base a
la otra tiene determinante positivo, y se dice que tienen orientacion contraria si el determinante de
la matriz del cambio de base es negativo. En el captulo primero hemos visto que las rotaciones son
62 CAPITULO 3. DENSIDADES TENSORIALES

Figura 3.1: Banda de Moebius.

transformaciones con determinante +1; el valor absoluto 1 indica que las rotaciones no introducen
cambios en el elemento de volumen y el signo + que no introducen cambios en la orientacion del
espacio. En general cuando una matriz de cambio de base tiene determinante negativo significa que
en el cambio hay una inversion de los ejes, o (equivalentemente) una permutacion impar de los
vectores de la base (seguida posiblemente de una o varias rotaciones).
De las propiedades de los determinantes se deduce que la relacion definida por la orientacion
es una relacion de equivalencia, de modo que las bases de un espacio vectorial orientable estan
clasificadas en dos clases de equivalencia, correspondientes a las dos orientaciones posibles. Se define
como orientacion positiva la de la base canonica y su clase de equivalencia, y como orientacion
negativa la de todas las bases relacionadas con la base canonica por medio de una matriz de cambio
con determinante negativo.
Es interesante observar que la orientacion de una base es una propiedad que no puede definirse
de manera geometrica sin hacer referencia a la orientacion contraria. Es el contraste entre ambas
orientaciones posibles lo que define esta propiedad. Tambien es interesante observar que todas
las bases con orientacion positiva estan conectadas mediante transformaciones invertibles que se
pueden construir como composicion de transformaciones infinitesimales a partir de la identidad,
mientras que las transformaciones que cambian la orientacion de la base no pueden construirse como
superposicion de transformaciones infinitesimales invertibles a partir de la identidad. El motivo es
que construir una matriz de cambio de base por medio de la superposicion de transformaciones
infinitesimales a partir de la identidad implica que C vara de manera continua desde la identidad a
medida que aplicamos estas transformaciones infinitesimales. Por tanto, si partimos de la identidad
(C = 1, |C| = +1) y queremos llegar a una transformacion con |C| < 0, necesariamente en el camino
hemos debido pasar en algun punto por una matriz C con |C| = 0 (ya que el determinante vara de
manera continua con C), pero esa transformacion no es admisible como cambio de base ya que no
es invertible. Esto hace que desde el punto de vista topologico las aplicaciones lineales invertibles
(es decir, con determinante no nulo) dan lugar a un espacio que tiene dos partes (correspondientes
3.3. SIMBOLO ALTERNANTE DE LEVI-CIVITA 63

a los dos signos posibles del determinante) que no pueden conectarse por medio de aplicaciones
continuas, es decir, dos partes no conexas. De estas dos partes, la parte con determinante positivo
es la componente conexa con la identidad de este grupo de transformaciones, mientras que la
parte con determinante negativo es la componente no conexa con la identidad.

3.3. Smbolo alternante de Levi-Civita


En este apartado veremos el concepto de smbolo alternante de Levi-Civita, dado en n dimensio-
nes por i1 ...in (i1 ...in en su version contravariante), y definido como la densidad tensorial totalmente
antisimetrica e isotropa cuyos valores estan dados por +1 si los ndices i1 . . . in son una permutacion
par de 12 . . . n, 1 si los ndices i1 . . . in son una permutacion impar de 12 . . . n, y 0 si hay algun
ndice repetido


+1 si i1 . . . in es una permutacion par de 1 . . . n
i1 ...in
i1 ...in = = 1 si i1 . . . in es una permutacion impar de 1 . . . n (3.6)


0 si hay algun ndice repetido
Es conveniente aclarar que la expresion anterior: i1 ...in = i1 ...in , tiene sentido cuando se interpreta
componente a componente, en otras palabras i1 ...in = i1 ...in significa que los valores de las com-
ponentes i1 ...in coinciden con los correspondientes valores de las componentes i1 ...in . Claramente
la igualdad anterior no tiene sentido como igualdad entre tensores (o pseudo-tensores), solo tiene
sentido cuando se interpreta como igualdad entre valores numericos de componentes. En lo sucesivo
daremos esta aclaracion por sobre-entendida.
Por definicion es evidente que i1 ...in son antisimetricos bajo permutacion de cualquier par de
ndices, y tambien por definicion i1 ...in es isotropo, de modo que los valores de i1 ...in y i1 ...in son los
mismos independientemente de la base que estemos empleando. Por otra parte, por las propiedades
de los determinantes i1 ...in es una densidad tensorial n-covariante de peso 1, mientras que i1 ...in
es una densidad tensorial n-contravariante de peso +1, como veremos a continuacion para el caso
tridimensional. El smbolo alternante de Levi-Civita se emplea en el estudio de las propiedades de
los determinantes, en todo lo relacionado con rotaciones y productos vectoriales (en 3 dimensiones)
y su generalizacion a espacios n-dimensionales. El smbolo alternante de Levi-Civita aparece, por
ejemplo, en la definicion del determinante de matrices n-dimensionales: dada la matriz A con
elementos Aji , su determinante esta dado por

n
det(A) = i1 in Ai11 Ai22 Ainn . (3.7)
i1 ,i2 ,...,in =1

Para fijar ideas veamos el smbolo de Levi-Civita en 2 dimensiones, dado por ij . En este caso
los ndices ij solo pueden tomar los valores 1 y 2, lo que hace que el caso bidimensional sea un poco
trivial, ya que solo hay 2! = 2 maneras posibles de ordenar los valores 1 y 2 sin repeticion: por
un lado tenemos 12 que es la permutacion trivial y tiene paridad positiva y por otro 21, que tiene
paridad negativa (es decir, es una permutacion impar) ya que para obtener la permutacion 21 a
partir de la permutacion trivial 12 hemos tenido que realizar un numero impar (1) de intercambios
(o trasposiciones). En definitiva los valores posibles de ij son

12
12 = = +1
ij
ij = = 21 = 21 = 1 (3.8)

11 22
11 = = 22 = = 0
64 CAPITULO 3. DENSIDADES TENSORIALES

En espacios tridimensionales, el smbolo alternante de Levi-Civita ijk se define como el objeto


dado en cualquier base por


+1 si ijk es una permutacion par de 123
ijk = 1 si ijk es una permutacion impar de 123 (3.9)


0 si hay algun ndice repetido

En este caso los ndices ijk pueden tomar los valores 1, 2 y 3, de modo que existen 3! = 6 permuta-
ciones diferentes, 3 de ellas con paridad positiva (123, 231, 312) y las otras 3 con paridad negativa
(132, 213, 321). De manera que los valores posibles de ijk son
{
123 = 231 = 312 = +1
ijk = (3.10)
132 = 213 = 321 = 1

siendo nulos todos los restantes, ya que tienen algun ndice repetido. Los valores de la version
contravariante (ijk ) se definen de manera analoga.
Para deducir como se transforma este objeto bajo el cambio de base dado por la matriz C
recordamos que, por definicion, el determinante de C esta dado por

|C| = C1i C2j C3k ijk (3.11)

Como las componentes de ijk son las mismas independientemente de la base encontramos

pqr = |C|1 Cpi Cqj Crk ijk (3.12)

Por tanto el smbolo ijk sera un tensor 3-covariante de no ser por el factor |C|1 , este factor hace
que ijk sea un pseudotensor 3-covariante de peso 1. Por otra parte, ijk s se transforma como
un tensor 3-covariante bajo transformaciones ortogonales (C 1 = C T ) propias (|C| = 1), es decir,
bajo rotaciones de los ejes.
La version 3-contravariante del smbolo alternante de Levi-Civita se define analogamente, como
el objeto dado en cualquier base por


+1 si ijk es una permutacion par de 123
ijk = 1 si ijk es una permutacion impar de 123 (3.13)


0 si hay algun ndice repetido

sus valores son los mismos que en la version covariante, como ya hemos comentado, y puede com-
probarse facilmente que ijk es un pseudotensor 3-contravariante de peso +1 (ver problema P.3.6).
Por otra parte, por su propia definicion esta claro que los smbolos alternantes de Levi-Civita ijk
y ijk son antisimetricos bajo permutaciones de cualquier par de ndices, y ademas son isotropos
bajo cualquier cambio de base.

3.3.1. Tensor alternante de Levi-Civita


Al comienzo de este tema hemos visto que el determinante del tensor metrico (g) es un pseudo-

tensor de peso 2 y rango nulo. Suponiendo que g > 0, esto implica que g es un pseudotensor axial

de peso 1, de tal forma que si formamos el producto gijk los comportamientos pseudotensoriales
3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES 65


de peso opuesto de g y ijk se cancelan, resultando un tensor axial. Definimos entonces el objeto
ijk

ijk gijk (3.14)
como el tensor alternante de Levi-Civita. Claramente ijk es un tensor axial 3-covariante

pqr = s Cpi Cqj Crk ijk (3.15)

Analogamente, por medio de la contraccion con el tensor metrico dual de los 3 ndices de ijk
encontramos la version 3-contravariante de este objeto, dada por

ijk
ijk = g ip g jq g kr pqr = (3.16)
g

que se comporta bajo cambios de base como un tensor axial 3-contravariante.


Es importante observar que el smbolo alternante de Levi-Civita no cumple exactamente la
relacion habitual de subida y bajada de ndices, mientras que el tensor alternante de Levi-Civita
s la cumple. A partir de las definiciones de ijk y ijk es inmediato deducir que la relacion entre
ijk y ijk esta dada por

ijk
= g ip g jq g kr gpqr ijk = g g ip g jq g kr pqr (3.17)
g

Como decamos antes, todas las definiciones anteriores se generalizan al caso de n dimensiones
de manera analoga. De todas formas en este captulo nos centraremos en el caso de 3 dimensiones
por su especial relevancia, en particular para la definicion tensorial del conocido producto vectorial
de dos vectores, tal y como veremos a continuacion.

3.4. Producto vectorial en espacios tridimensionales


Los espacios tridimensionales son excepcionales en el sentido en que son el unico caso en que
el producto diadico antisimetrico de dos vectores cualesquiera (dado por xy yx) tiene el mismo
numero de componentes no nulas que los vectores habituales del espacio. A partir de las 3 compo-
nentes no nulas de xy yx puede definirse un vector axial del espacio dual ( = i ei ), denominado
producto vectorial de x por y ( = x y), tal que para cualquier vector del espacio z el producto
escalar z = i z i es el volumen del paraleleppedo formado por los vectores x, y y z. Esto implica
que el vector = x y esta orientado segun la direccion normal al plano definido por los vectores
x e y y que su norma es igual al area del paralelogramo definido por x e y, lo cual constituye la
definicion del producto vectorial de x por y. Veamos esto con algo mas de detalle.
En general el producto diadico antisimetrico de dos vectores, y por tanto tambien el producto
vectorial, esta relacionado con el calculo de volumenes y con la aplicacion de rotaciones infinite-
simales. En el caso particular de espacios tridimensionales es mucho mas habitual trabajar con el
producto vectorial que con el producto diadico antisimetrico. En fsica se describen por medio de
productos vectoriales muchas magnitudes relacionadas con rotaciones, como por ejemplo el momen-
to de una fuerza, la velocidad angular, o el rotacional de un campo vectorial. Tal y como veremos a
continuacion, el producto vectorial de dos vectores se comporta como un verdadero vector solo bajo
cambios de base con determinante positivo, pero sus componentes son invariantes bajo inversiones
de los ejes (al contrario que las componentes de los vectores polares), lo que lo convierte en un
vector axial.
66 CAPITULO 3. DENSIDADES TENSORIALES

3.4.1. Definicion de producto vectorial


Dados dos vectores x e y pertenecientes a un espacio vectorial con dimension 3, el producto
vectorial de x por y (denotado por x y) se define como:

el vector perpendicular al plano formado por x e y,

con modulo dado por la superficie del paralelogramo definido por los vectores x e y,

y con sentido tal que la terna ordenada {x, y, x y} tiene orientacion positiva.

Claramente, en dimension 1 y 2 la anterior definicion no es aplicable, mientras que en dimension


4 (o mayor) el subespacio perpendicular al plano formado por x e y tiene dimension 2 (o mayor) y
por tanto esta definicion no determina un vector, de modo que el producto vectorial es una operacion
exclusiva de espacios vectoriales de 3 dimensiones. El producto exterior de p-formas proporciona la
generalizacion al caso n-dimensional, pero de momento consideraremos solo el producto vectorial
habitual.
Segun la definicion anterior la norma del producto vectorial esta dada por

c
x y = xy sin xy (3.18)

c el angulo formado por x e y. Por otra parte, la condicion que determina el sentido de
siendo xy
x y implica la propiedad anticonmutativa del producto vectorial x y = y x, que a su vez
implica x x = 0, x R3 . Esta condicion tambien implica que las componentes del producto
vectorial permancen invariantes bajo una inversion de los ejes, es decir, bajo el cambio de base
definido por la matriz con componentes Cji = ji , lo que convierte al producto vectorial en un
vector axial.

Definicion tensorial de producto vectorial


Dado que el producto vectorial es una operacion lineal, para calcular el producto vectorial de 2
vectores cualesquiera basta con conocer la tabla de productos vectoriales de los vectores de la base.
En el caso habitual de R3 con metrica Eucldea y coordenadas cartesianas, aplicando directamente
la definicion de producto vectorial encontramos las conocidas relaciones

i j = k, k i = j, jk =i (3.19)

En ese caso, esta informacion junto con la propiedad anticonmutativa es suficiente para calcular el
producto vectorial de cualquier par de vectores. Pero

como podemos calcular el producto vectorial en coordenadas arbitrarias y con metrica no


necesariamente Eucldea?

En algunos textos se cita sin mayor justificacion la formula que permite calcular productos
vectoriales en coordenadas arbitrarias (Ec. (3.21), equivalentemente Ec. (3.22)), sin embargo resulta
instructivo deducir esta formula a partir de la definicion, tal y como se muestra a continuacion.
Como ya hemos dicho mas arriba, dado que este producto es lineal basta conocer la tabla
de productos vectoriales de los vectores de la base, independientemente de la metrica y de la
base que estemos empleando. Consideremos entonces el producto vectorial de los vectores ei por
ej , pertenecientes a una base arbitraria {e1 , e2 , e3 }. Suponiendo que i = j (en caso contrario el
producto es nulo), aplicando la definicion vemos que el producto ei ej sera proporcional a ek , con
3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES 67

k = i y k = j, de esta forma garantizamos las relaciones de ortogonalidad (ei ej ) ei = (ei ej )


ej = 0, que por definicion debe cumplir ei ej . Suponiendo que ijk forman una permutacion con
paridad positiva de 123, podemos escribir ei ej = ek , donde es un numero positivo. Para
calcular imponemos ek = ei ej sin , siendo el angulo formado por ei y ej . Elevando
esta relacion al cuadrado y aplicando cos2 + sin2 = 1 encontramos

g g
2 = g ii g ij /g kk
ji jj

donde hemos aplicado las definiciones de tensor metrico y tensor metrico inverso. Pero el elemento
g kk de la inversa del tensor metrico esta dado precisamente por el menor que resulta de suprimir
la fila y la columna con ndice k en dicha matriz, dividido por el determinante (g)

kk gii gij
g = g g /g
ji jj

ya que estamos suponiendo que ijk son una permutacion par de 123. Entonces ei ej = gek
para cualquier combinacion de ndices ijk dada por una permutacion par de 123. Como el producto
vectorial es antisimetrico esta relacion puede escribirse como

ei ej = gijk ek = ijk ek (3.20)

que es valida para cualquier valor de i, j y k. A partir de esta relacion el producto vectorial de 2
vectores cualesquiera x e y puede calcularse por medio de

x y = (xj ej ) (y k ek ) = ijk xj y k ei (3.21)

independientemente de la base y metrica consideradas. La anterior relacion Ec. (3.21) es la definicion


tensorial de producto tensorial.
A la vista de este resultado es evidente que las coordenadas del producto vectorial de dos
vectores definen un vector axial 1-covariante, ya que estan dadas por la contraccion del tensor axial
3-covariante ijk con el tensor absoluto 2-contravariante xj y k

x y = i ei , i = ijk xj y k (3.22)

como adelantabamos al comienzo de este tema.


En el problema P.3.13 repasamos con algo mas de detalle la deduccion de Ec. (3.21).

Propiedades del producto vectorial


El producto vectorial cumple las siguientes propiedades cuya demostracion se deja para los
ejercicios:

propiedad distributiva respecto a la suma de vectores en ambos argumentos

x (y 1 + y 2 ) = x y 1 + x y 2 (3.23)
(x1 + x2 ) y = x1 y + x2 y (3.24)

propiedad asociativa respecto al producto por escalares

R, (x y) = (x) y = x (y) (3.25)


68 CAPITULO 3. DENSIDADES TENSORIALES

propiedad anticonmutativa
x y = y x (3.26)

producto triple escalar (volumen de paraleleppedos)

a (b c) = b (c a) = c (a b) (3.27)

producto triple vectorial, tambien conocido como identidad BACCAB de Lagrange

a (b c) = b (a c) c (a b) (3.28)
(a b) c = b (a c) a (b c) (3.29)

Observese que si a, b y c son vectores polares, entonces a (b c) tambien es un vector


polar, ya que es el producto vectorial de un vector polar por un vector axial. El producto
vectorial de dos vectores cambia el caracter axial/polar de manera contraria a como lo hace el
producto tensorial. Es decir, el producto vectorial de dos vectores polares (o de dos vectores
axiales) genera un vector axial, mientras que el producto vectorial de dos vectores de paridades
opuestas genera un vector polar.

identidad de Jacobi
El producto vectorial no es asociativo, pero cumple la identidad de Jacobi, que se obtiene de
forma trivial calculando cada termino por medio de la identidad BACCAB

x (y z) + y (z x) + z (x y) = 0 (3.30)

De las propiedades anteriores se deduce que el producto vectorial tambien cumple las siguien-
tes propiedades interesantes:

identidad de Binet-Cauchy

(a b) (c d) = (a c) (b d) (a d) (b c) (3.31)

producto (a b) (c d)

(a b) (c d) = c (a (b d)) d (a (b c))
= b (a (c d)) a (b (c d)) (3.32)

3.4.2. Calculo de volumenes


Como consecuencia directa de la definicion del producto vectorial, esta claro que (x y) z es
igual al volumen del paraleleppedo definido por estos 3 vectores en R3 . Por tanto, como aplicacion
directa de Ec. (3.21) vemos que el volumen del paraleleppedo definido por los vectores x, y y z
puede escribirse como

x1 x2 x3

V = (x y) z = gijk z i xj y k = g y 1 y 2 y 3 (3.33)
z 1 z 2 z 3

independientemente del sistema de coordenadas empleado.


3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES 69

Vector normal a una superficie

En particular, si t1 y t2 representan dos vectores ortonormales tangentes a una superficie definida


en R3 , su producto vectorial n = t1 t2 es un vector unitario normal a dicha superficie. Claramente,
las dos orientaciones posibles del vector normal a una superficie dada corresponden a definir esta
como n = t1 t2 o como n = t2 t1 .

3.4.3. Rotaciones infinitesimales


Como es bien sabido, el producto vectorial esta relacionado con rotaciones infinitesimales en 3
dimensiones. En general cualquier rotacion en un espacio n-dimensional esta dada por un elemento
del grupo especial ortogonal SO(n), definido como la componente con determinante +1 del grupo de
aplicaciones ortogonales en n dimensiones O(n) (es decir, la componente conexa con la identidad
de O(n)). Consideremos una rotacion de angulo infinitesimal d en 3 dimensiones, claramente
esta aplicacion estara dada por una cierta matriz ortogonal R(d). Dado que rotamos un angulo
infinitesimal, el resultado de aplicar esta rotacion sobre cualquier vector x sera igual al vector de
partida mas una pequena variacion

R(d)x = x + dx (3.34)

por tanto la aplicacion R(d) es igual a la identidad mas una pequena perturbacion proporcional
al angulo d, que definimos como Ad

R(d) = 1 + Ad (3.35)

Por definicion esta aplicacion es ortogonal, de modo que (1 + Ad)1 = 1 + AT d. Como conse-
cuencia, despreciando terminos del orden de (d)2 encontramos

A + AT = 0 (3.36)

(por simplicidad en este apartado consideramos solo espacios con metrica Eucldea) de modo que
A es una aplicacion antisimetrica.
En un espacio tridimensional A solo tendra 3 componentes no nulas. Si suponemos que la
rotacion R(d) corresponde a una rotacion de angulo d = dt, donde t representa el tiempo y
la velocidad angular, y definimos las 3 componentes no nulas de A como
( )
d 0 3 2
A = 3 0 1 (3.37)
dt 2 1 0

vemos que la velocidad con la que vara x esta dada por

dx
dx = (Ad) x = ( x) dt, es decir v =x (3.38)
dt

donde el vector axial , dado por las componentes 1 , 2 , 3 , esta orientado segun el eje de giro y
su norma es igual a la velocidad angular = d/dt.
70 CAPITULO 3. DENSIDADES TENSORIALES

3.5. Introduccion al producto exterior de p-formas


A continuacion presentamos algunos comentarios referentes al importante tema del calculo
exterior en variedades diferenciables. Este apartado queda fuera del principal hilo de discusion, y
puede omitirse sin perdida de continuidad en la exposicion.
El producto vectorial solo esta definido para el caso de espacios tridimensionales, pero

existe algun producto que generalice esta operacion al caso de n dimensiones?

La respuesta es afirmativa, pero para definir esta generalizacion, dada por el producto exterior de
p-formas, debemos considerar objetos distintos de los familiares vectores.
Las p-formas son aplicaciones multilineales de rango p totalmente antimetricas (es decir, an-
timetricas bajo permutacion de cualquier par de ndices), en otras palabras, las p-formas se corres-
ponden con los tensores covariantes totalmente antimetricos de rango p. Por ejemplo, los escalares
son 0-formas, los vectores covariantes son 1-formas, los tensores covariantes antisimetricos de rango
tensorial 2 son 2-formas, etc.
En el caso de los tensores hemos definido una operacion producto tensorial que nos permite
definir objetos tensoriales de rango superior como producto tensorial de objetos tensoriales. Con
las p-formas existe una operacion analoga, llamada producto exterior de p-formas, que se define
como el producto tensorial antisimetrizado en todos los ndices. El motivo por el cual el producto
exterior no coincide con el producto tensorial es el siguiente: si calculamos el producto tensorial
de dos tensores covariantes totalmente antisimetricos (p. ej. Aij y Bpq ) el objeto resultante es un
tensor covariante cuyo rango es la suma de los de A y B (Aij Bpq = Cijpq en este caso) antisimetrico
respecto a permutaciones de los ndices heredados de cada uno de los factores por separado (ij
por un lado y pq por otro en este caso), pero nada nos garantiza que sea totalmente antisimetrico,
es decir, Aij Bpq = Cijpq podra no ser simetrico bajo permutaciones de ndices cruzados, como j
con p por ejemplo, de modo que el producto tensorial de dos p-formas no es necesariamente una
p-forma. Con el objeto de definir un producto de p-formas cuyo resultado sea otra p-forma se define
el producto exterior (denotado por , exterior product o wedge producto en la literatura en lengua
inglesa) como el producto tensorial antisimetrizado en todos los ndices. Por ejemplo, el producto
exterior de dos vectores esta dado por

xy =xyyx (3.39)

en componentes covariantes esto es

(x y)ij = xi yj xj yi (3.40)

que claramente recuerda al producto vectorial. El producto vectorial de los vectores covariantes xi
y yj contiene la contraccion del tensor xj yk con el tensor antisimetrico en todos sus ndices ijk . Si
descomponemos el tensor xj yk en sus partes simetrica y antisimetrica
1 1
xj yk = (xj yk + xk yj ) + (xj yk xk yj ) (3.41)
2 2
es evidente que solo la parte antisimetrica produce una contribucion no nula, de forma que las
componentes i del producto vectorial pueden escribirse como

1 ijk
i = jk (3.42)
2 g
3.5. INTRODUCCION AL PRODUCTO EXTERIOR DE P -FORMAS 71

donde hemos definido el tensor absoluto 2-contravariante totalmente antisimetrico jk como

jk xj yk xk yj (3.43)

Como consecuencia vemos que, esencialmente, el producto vectorial de dos vectores x e y esta re-
lacionado con el producto tensorial antisimetrizado de dichos vectores, dado por x y y x, con
componentes covariantes jk = xj yk xk yj , es decir, con el producto exterior.
En espacios n-dimensionales los tensores covariantes totalmente antisimetricos (antisimetricos
en todos sus ndices), junto con la operacion de producto exterior (producto tensorial antisimetri-
zado en todos los ndices) definen un algebra, llamada algebra exterior o algebra de Grassmann. Las
relaciones de simetra que cumplen los tensores covariantes totalmente antisimetricos hacen que un
tensor covariante antisimetrico de rango p, que en principio tiene np componentes respecto de la
base ei1 eip , pueda describirse por medio de un numero reducido de componentes respecto
de la base ei1 eip , donde los ndices i1 . . . ip cumplen la relacion i1 < i2 < . . . < in1 < ip .
Esto se debe a que (debido a la anti-simetra del tensor) todas las componentes no incluidas en este
conjunto o bien son nulas, o bien pueden escribirse en funcion dicho conjunto. Las componentes de
los tensores antisimetricos respecto de la base ei1 eip (con i1 < . . . < ip ) forman el conjunto
de componentes mnimo necesario para manejar este tipo de objetos, y se denominan componentes
estrictas. Por ejemplo, en 3 dimensiones las componentes estrictas de wjk = xj yk xk yj son 12
13 y 23 , ya que todas las restantes son, o bien nulas, o bien iguales a estas multiplicadas por 1.
Las densidades tensoriales covariantes rango p totalmente antisimetricas, descritas por medio
de sus componentes estrictas, cumplen todas las propiedades necesarias para formar un espacio
vectorial, cuyos elementos se denominan p-formas. El numero de componentes estrictas que tiene
un tensor totalmente antisimetrico de rango p en un espacio de n dimensiones esta dado por el
numero de opciones que existen para escoger p objetos sin repeticion, de un conjunto de n objetos,
es decir, por el coeficiente binomial ( )
n n!
=
p p!(n p)!
por(tanto
) las p-formas definidas sobre un espacio n-dimensional pertenecen a un espacio vectorial
n
de p dimensiones. Es importante observar que no puede haber tensores antisimetricos no nulos
( )
de rango mayor que n, ya que el coeficiente binomial np es nulo para cualquier p > n (el numero
de posibilidades distintas de escoger p objetos sin repeticion en un conjunto de n objetos es nulo si
p > n). Por otra parte, en vista de la simetra de los coeficientes binomiales
( ) ( )
n n
=
p np

el espacio de p-formas es isomorfo al de (n p)-formas. El isomorfismo que relaciona ambos


espacios (y que cumple que Ax = (A)x) se conoce como operacion de Hodge (operacion estrella
de Hodge), de manera que dos formas relacionadas por esta operacion son Hodge-duales. En espacios
tridimensionales la relacion Ec. (3.42) entre la 1-forma i y la 2-forma jk es un ejemplo de este
tipo de dualidad, de manera que el producto vectorial de dos vectores x e y es el Hodge-dual de
su producto exterior, y viceversa

x y = (x y) , x y = (x y) (3.44)

La gran diferencia es que el producto vectorial solo esta definido para el caso de espacios de 3
dimensiones, mientras que el producto exterior es aplicable en cualquier dimensionalidad.
72 CAPITULO 3. DENSIDADES TENSORIALES

El producto exterior de 2 vectores generaliza al caso n-dimensional el producto vectorial y,


analogamente a como sucede con el producto vectorial, esta relacionado con el calculo de volumenes
y con rotaciones infinitesimales. En( un
) espacio de n dimensiones el producto exterior de 2 vectores
tiene una dimensionalidad igual a n2 = n(n1) 2 , que coincide con la dimensionalidad n del espacio
solo para el caso n = 3, que resulta por tanto excepcional. En espacios de dimensionalidad distinta
a 3 no puede definirse el producto vectorial, ya que en esos casos la dimensionalidad de x y no
se corresponde con la de un vector. De acuerdo a la dimensionalidad de x y tenemos que (ver
tabla 3.2) en 1 dimension no puede haber rotaciones, mientras que en 2 dimensiones basta con un
escalar para describir cualquier rotacion (dado por el angulo que rotamos) y en 3 dimensiones es
necesario emplear un vector, cuyas componentes describen la orientacion del eje de rotacion y el
angulo que rotamos. Finalmente, el numero de grados de libertad de las rotaciones en espacios de
dimensionalidad n > 3 aumenta de manera cuadratica con n.
De la misma forma que (x y) z nos da el volumen del paraleleppedo definido por estos 3
vectores en R3 , el producto exterior tambien esta relacionado con el calculo de volumenes en varie-
dades diferenciables de dimension arbitraria. El estudio de aplicaciones relacionadas con rotaciones
infinitesinales o con integracion en variedades diferenciables de dimension arbitraria suele hacerse
en el contexto de algebras de Grassmann, por medio del calculo exterior. El calculo exterior resulta
mas potente que el calculo tensorial para todo lo relacionado con manipulacion de tensores anti-
simetricos, ya que aprovecha al maximo las relaciones de (anti-) simetra caractersticas de estos
objetos. Por supuesto que para poder hacer un uso ventajoso del calculo exterior es necesario estar
familiarizado previamente con el calculo tensorial.

n 1 2 3 4 5 ...
(n )
2 0 1 3 6 10 ...

Cuadro 3.2: Dimensionalidad del producto exterior de dos vectores en funcion de la dimen-
sionalidad (n) del espacio vectorial al que pertenecen.

3.6. Problemas
P.3.1. Calcule la matriz del cambio de base correspondiente a intercambiar dos vectores cualesquiera
de la base canonica en n dimensiones que determinante tiene esta matriz de cambio de base?

P.3.2. Repita el ejercicio anterior para el caso de una permutacion con paridad positiva de los
vectores de la base.

P.3.3. Repita el ejercicio anterior para el caso de una permutacion con paridad negativa.

P.3.4. Demostrar que g es un pseudo-tensor axial de peso 1.

P.3.5. Demostrar que 1/ g es un pseudo-tensor axial de peso 1.

P.3.6. Demostrar que ijk es un pseudotensor 3-contravariante de peso 1.



P.3.7. Demostrar que ijk = gijk es un tensor axial 3-covariante.

P.3.8. Demostrar que ijk = g ip g jq g kr pqr esta dado por ijk / g.
3.6. PROBLEMAS 73


P.3.9. Demostrar que ijk = ijk / g es un tensor axial 3-contravariante.

P.3.10. Demostrar que el producto vectorial de dos vectores polares produce un vector axial.

P.3.11. Demostrar que el producto vectorial de un vector axial por un vector polar produce un vector
polar.

P.3.12. Verifique que se cumplen todas las propiedades generales del producto vectorial (Ec. (3.23)
Ec. (3.32)) usando un sistema de coordenadas arbitrarias.

P.3.13. Deduzca la relacion (3.20) a partir de la definicion de producto vectorial.

3.6.1. Soluciones a problemas seleccionados (Tema 3)


P.3.1. La definicion de cambio de base se encuentra en el apartado 1.4.1, concretamente en Eq.
(1.84) y el parrafo que la precede. En virtud de esta definicion de matriz de cambio de base
vemos que la matriz de cambio de base correspondiente a intercambiar los vectores i y j de
la base canonica en n dimensiones esta dada por la matriz identidad n-dimensional con las
columnas i y j intercambiadas entre s. Por las propiedades de los determinantes es evidente
que el determinante de dicha matriz es 1.

P.3.2. La forma mas sencilla de hacer una permutacion de paridad positiva es por medio de un
numero par (p. ej. 2) de transposiciones (es decir intercambios i por j y viceversa). Por tanto
una posible permutacion con paridad positiva de la base canonica consiste en intercambiar
entre s dos vectores i y j y posteriormente intercambiar entre s otros dos vectores p y q.
La matriz de cambio de base correspondiete esta dada por la matriz identidad n-dimensional
donde en primer lugar intercambiamos las columnas i y j, y a continuacion intercambiamos
las columnas p y q. Por las propiedades de los determinantes el signo del determinante de
dicha matriz de cambio de base es +1.
Para fijar ideas ponemos un ejemplo concreto en 3 dimensiones, la base de partida es la
habitual {i, j, k}. Intercambiamos en primer lugar los vectores 1 y 2 de la base y en segundo
lugar los 2 y 3, la nueva base es {j, k, i}, la matriz de cambio de base es

0 0 1


C = 1 0 0

0 1 0

que claramente tiene determinante +1.

P.3.3. Si partimos de la matriz identidad n-dimensional y realizamos una permutacion con paridad
negativa de columnas (es decir, un numero impar de transposiciones sucesivas) la matriz
resultante es la matriz del cambio de base correspondiente a la permutacion realizada sobre
las columnas, es decir, sobre los vectores de la base (recordar la definicion de matriz de cambio
de base, apartado 1.4.1). Por las propiedades de los determinantes el determinante de dicha
matriz sera 1.

P.3.4. Partimos de la ley de transformacion del determinante del tensor metrico bajo el cambio de
base C:
g = |C|2 g
74 CAPITULO 3. DENSIDADES TENSORIALES

Elevando ambos miembros de la igualdad a un medio llegamos a




g = |C|2 g = abs |C| g = s |C| g

donde s es el signo del determinante de la matriz de cambio de base s = sign |C|.


Comparando el resultado con la expresion general (Ec. 3.3) queda demostrada la afirmacion
del enunciado.

P.3.5. A partir de los resultados del ejercicio anterior es evidente que


1 1
= s |C|1
g g

de modo que 1/ g es un pseudotensor axial de peso 1.

P.3.6. Tenemos que demostrar que pqr = |C| Dip Djq Dkr ijk .
Por definicion, las componentes del smbolo alternante de Levi-Civita son las mismas para
cualquier base, tanto en su forma 3-covariante como en su forma 3-contravariante.
Para encontrar la transformacion de la forma contravariante podemos emplear un desarrollo
analogo al utilizado para la forma covariante, pero considerando la matriz inversa del cambio
de base:
|D| = Di1 Dj2 Dk3 ijk
De nuevo, como las componentes deben ser las mismas para cualquier base podemos escribir:

pqr = |D|1 Dip Djq Dkr ijk = |C| Dip Djq Dkr ijk

demostrando as la ley de transformacion de la forma contravariante.


Tambien es posible llegar a este mismo resultado a partir de la relacion entre ijk y ijk . Sa-
biendo que la version 3-contravariante del tensor alternante de Levi-Civita se obtiene subiendo
los 3 ndices de su version 3-covariante (Eq. (3.16)) deducimos que

ijk = g g ip g jq g kr pqr

En una base distinta esta relacion se lee como

ijk = g g ip g jq g kr pqr

Sustituyendo el cambio de base correspondiente a cada uno de los factores que aparecen en
el lado derecho encontramos

ijk = |C|2 g Dai Dbp g ab Dcj Ddq g cd Dek Dfr g ef |C|1 Cp Cq Cr

Operamos los productos DC = 1 que aparecen

ijk = |C| g Dai b g ab Dcj d g cd Dek f g ef

operamos los productos por las deltas de Kronecker

ijk = |C| g Dai g ab Dcj g cd Dek g ef bdf = |C| Dai Dcj Dek ace

obteniendose el resultado esperado.


3.6. PROBLEMAS 75

P.3.7. Partimos de la definicion de ijk dada en el enunciado. La expresion de ijk tras un cambio
de base vendra dada por
ijk = gijk

Teniendo en cuenta las leyes de transformacion de g (problema P.3.4) y de ijk (Eq. (3.12))
llegamos a
ijk = sCip Cjq Ckr pqr
con lo que queda demostrado el comportamiento tipo pseudotensor tensor axial 3-covariante.

P.3.8. Partimos de la expresion inicial y sustituimos el objeto ijk por su definicion



ijk = g ip g jq g kr pqr = g ip g jq g kr gpqr

Ahora podemos utilizar el valor del determinante del tensor metrico dual g 1 = det(g ij ):

g 1 = g 1p g 2q g 3r pqr

y escribir
g 1 ijk = g ip g jq g kr pqr
Sustituyendo en la expresion de arriba llegamos al resultado pedido

ijk ip jq kr g ijk ijk
=g g g gpqr = =
g g

P.3.9. El resultado pedido se obtiene de manera trivial multiplicando las leyes de transformacion
obtenidas en los ejercicios P.3.5 y P.3.6.

P.3.10. Si expresamos el producto vectorial como

x y = i ei

esto quiere decir que sus componentes i se transforman bajo el cambio de base C segun la
ley
i = sCij j ,
donde s es el signo del determinante de la matriz de cambio de base s = sign |C|.
En el texto hemos visto que

i = gijk xj y k
por lo tanto, el aspecto del tensor desde la nueva base vendra dado por sus nuevas componentes

i = gijk xj y k = gijk Dnk Dm
j m n
x y

Si aplicamos ahora la transformacion del smbolo de Levi-Civita

ijk = |C|1 Cip Cjq Ckr pqr

y la de la raz cuadrada del determinante del tensor metrico



g = s |C| g
76 CAPITULO 3. DENSIDADES TENSORIALES

tendremos

i = gijk xj y k

= s gCip Cjq Ckr pqr Dnk Dm
j m n
x y
p q r m n
= s gCi m n pqr x y

= sCip gpqr xq y r
= sCip p
y as queda demostrado que el producto vectorial es un tensor axial.
P.3.11. Consideramos los vectores x e y, su producto vectorial esta dado por

i = ijk xj y k = gijk xj y k
Suponemos que el vector x es un vector polar, mientras que el vector y es axial. Por tanto,
bajo un cambio de base C las componentes de estos vectores cambian de acuerdo a
xi = Cji xj

y i = sCji y j
Sustituyendo estos cambios encontramos

i = s gCpj Cqk ijk xp y q
Multiplicando esta expresion por la matriz del cambio y recordando las reglas de transforma-
cion del tensor alternante de Levi-Civita obtenemos

Cri i = s gCri Cpj Cqk ijk xp y q = rpq xp y q
pero el lado derecho de esta ultima expresion es precisamente la definicion de wr , entonces
vemos que
wr = Cri i
tal y como corresponde a las componentes covariantes de un vector polar. Con esto queda
demostrando que el producto vectorial de un vector axial por un vector polar produce un
vector polar.
P.3.12. Demostracion de las propiedades generales del producto vectorial
Segun hemos visto el producto vectorial de dos vectores x e y esta dado por
x y = ijk xj y k ei
propiedad distributiva
x (y 1 + y 2 ) = x y 1 + x y 2
(x1 + x2 ) y = x1 y + x2 y
La demostracion de estas dos propiedades es trivial, para la primera basta poner y =
y 1 + y 2 , con componentes y1k e y2k respectivamente (donde el subndice indica que nos
referimos a las componentes de y 1 en el primer caso y de y 2 en el segundo). Sustituyendo
estas componentes en la definicion del producto, operando y agrupando los resultados se
llega al resultado pedido. Para la segunda propiedad basta con operar de manera similar
con el vector x.
3.6. PROBLEMAS 77

propiedad asociativa

R, (x y) = (x) y = x (y)

Sustituyendo directamente
( ) ( ) ( )
ijk xj y k = ijk xj y k = ijk xj y k

identificando las componentes xj con el vector x, y analogamente con y j y el vector


y, se llega al resultado pedido.
propiedad anticonmutativa
x y = y x
Partimos de ijk xj y k , como los ndices j y k son mudos podemos cambiarlos de nombre.
Por ejemplo al j le podemos llamar a y al k le llamamos b. Posteriormente al a le
llamamos k y al b le llamamos j, con lo que llegamos a

ijk xj y k = ikj xk y j = ijk y j xk

donde en el ultimo paso hemos aplicado que ikj = ijk , que se cumple por definicion
de smbolo alternante de Levi-Civita.
volumen del paraleleppedo formado por tres vectores

a (b c) = b (c a) = c (a b)

En la relacion ec. (3.33) hemos visto que a (b c) representa el volumen del parale-
leppedo formado por a, b y c, cuyo valor esta dado por el determinante indicado en
dicha formula. Por las propiedades de los determinantes el resultado permance invariante
bajo permutaciones cclicas de los vectores.
regla BACCAB de Lagrange

a (b c) = b (a c) c (a b)
(a b) c = b (a c) a (b c)

La demostracion de esta propiedad no es del todo trivial, y proporciona una buena


oportunidad para adquirir experiencia con el manejo de expresiones con ndices y con el
convenio de suma de Einstein.
En primer lugar calculamos la componente contravariante k del producto vectorial b c

b c = slm bl cm es = g sk slm bl cm ek

A continuacion calculamos el producto a (b c)


( ) ( )
a (b c) = ijk aj g ks slm bl cm ei = ijk aj g ks slm bl cm g iq eq

agrupando
a (b c) = g ks g iq ijk slm aj bl cm eq
El producto g ks g iq ijk puede calcularse por medio de la relacion

= g x g y g z xyz
78 CAPITULO 3. DENSIDADES TENSORIALES

(donde los ndices x, y, z son solo ndices, no estan relacionados con las coordenadas
cartesianas). Multiplicando esta relacion por g encontramos

g = g y g z yz

Teniendo en cuenta este resultado, que g ij es simetrico y que ijk permanece invariante
bajo permutaciones cclicas de sus ndices encontramos

g ks g iq ijk = g sk g qi jki = gj sq

donde para llegar a este resultado hemos sustituido en la relacion anterior los cambios
de ndices siguientes:

s, y k, q, z i, j

Sustituyendo encontramos

a (b c) = gj sq slm aj bl cm eq = sq slm a bl cm eq

Para continuar necesitamos calcular el producto sq slm = sq slm = slm sq (donde



hemos tenido en cuenta que las g se cancelan y que ijk es invariante bajo permutaciones
cclicas de los ndices). Sustituyendo en la identidad

ijk imn = jm kn jn km

los cambios
i s, j l, k m, m q, n
encontramos
sq slm = slm sq = lq m

l m
q

Sustituyendo en la relacion de arriba y operando llegamos finalmente a


( ) ( )
a(b c) = lq m

l m
q
a b c eq = am b c eq al b c eq = (b eq ) (am c )(c eq ) al b
l m q m l q q m q l

y por tanto
a (b c) = b (a c) c (a b)
con lo que queda demostrada la conocida identidad BACCAB independientemente de
la base empleada y de la metrica de R3 .
Una vez hemos demostrado esta identidad, para demostrar la otra relacion basta con
aplicar dos veces la propiedad antisimetrica del producto vectorial

a (b c) = (c b) a = b (a c) c (a b)

y posteriormente intercambiar los vectores a y c.


identidad de Jacobi:

x (y z) + y (z x) + z (x y) = 0
3.6. PROBLEMAS 79

La identidad de Jacobi tambien puede demostrarse operando directamente, pero es mas


sencillo demostrarla por medio de la identidad BACCAB:

x (y z) = y (x z) z (x y)
y (z x) = z (y x) x (y z)
z (x y) = x (z y) y (z x)

Sumando estas tres ecuaciones y recordando que el producto escalar es simetrico obte-
nemos la identidad de Jacobi de manera trivial.
identidad de Binet-Cauchy

(a b) (c d) = (a c) (b d) (a d) (b c)

Calculamos el lado izquierdo a partir de la relacion Eq. (3.27) para productos triples

(a b) (c d) = c [d (a b)]

a continuacion calculamos el producto d (a b) por medio de la relacion BAC-CAB

d (a b) = a(b d) b(a d)

finalmente aplicamos la propiedad distributiva y re-ordenamos.


producto (a b) (c d)

(a b) (c d) = c (a (b d)) d (a (b c))
= b (a (c d)) a (b (c d))

Desarrollamos el lado izquierdo por medio de la regla BAC-CAB de las dos formas
posibles
(a b) (c d) = c [(a b) d] d [(a b) c]
(a b) (c d) = b [a (c d)] a [b (c d)]
La segunda de estas relaciones corresponde directamente a la segunda igualdad que
queramos demostrar. Para obtener la primera igualdad basta con calcular los productos
triples que han aparecido en la primera de las relaciones anteriores por medio de la
relacion Eq. (3.27).

P.3.13. Deduzca la relacion (3.20) a partir de la definicion de producto vectorial.


Consideramos una base cualquiera en un espacio tridimensional no necesariamente Eucldeo.

Se trata de demostrar la relacion ei ej = gijk ek .
Por definicion de producto vectorial (ei ej )ei = (ei ej )ej = 0. Entonces, como el espacio
es tridimensional la condicion de ser perpendicular a ei y ej define una unica direccion, dada
por ek con k = i y k = j (evidentemente, estamos suponiendo que i = j, de lo contrario
ei ej es nulo). Escribimos entonces ei ej = ek , donde aun nos queda por determinar
el valor del factor de proporcionalidad . Suponiendo que ijk son una permutacion par de
123, tenemos que es un numero positivo. La relacion anterior implica directamente que el
modulo al cuadrado del producto vectorial es (ei ej ) (ei ej ) = 2 ek ek = 2 g kk .
80 CAPITULO 3. DENSIDADES TENSORIALES

A continuacion recordamos que gii = ei ei = ei 2 y analogamente para ej . Por otra parte,


si llamamos al angulo formado por ei y ej tenemos gij = gji = ei ej = ei ej cos . De
esto se deduce que
gij gji = gii gjj cos2

Por definicion el modulo de ei ej es el producto de modulos por el seno del angulo .


Elevando esto al cuadrado encontramos

2 g kk = ei 2 ej 2 sin2 = gii gjj sin2

Sustituyendo sin2 por medio de la identidad trigonometrica sin2 + cos2 = 1 obtenemos

2 g kk = gii gjj gij gji

Claramente gii gjj gij gji puede escribirse como el determinante de la matriz

gii gij

gji gjj

que se obtiene al eliminar del tensor metrico la fila k y la columna k, ya que estamos en un
espacio tridimensional y por hipotesis k es distinto de i y de j (y ademas i = j). Finalmente
nos queda relacionar este resultado con el elemento g kk del tensor metrico dual. Como el
tensor metrico dual esta dado por la inversa del tensor metrico, el elemento g kk es el cociente
resultante de dividir el menor que se obtiene al suprimir la fila y la columna con ndice k en el
tensor metrico, dividido por el determinante del tensor metrico (g), ya que por hipotesis ijk
son una permutacion par de 123 (de lo contrario sera negativo y en esta ultima relacion
aparecera un factor 1). Teniendo esto en cuenta deducimos que 2 = g y tomando la raz
cuadrada llegamos a

ei ej = gek
que es valida siempre y cuando ijk sea una permutacion par de 123. En caso contrario basta
con recordar que ei ej = ej ei donde jik son (en este caso) una permutacion par de
123, de modo que en ese caso se obtiene el resultado anterior multiplicado por 1. A todo
esto hasta ahora hemos asumido que i = j, en caso contrario por definicion sabemos que
ei ej = 0. Poniendo en comun estas 3 posibilidades llegamos a la relacion pedida

ei ej = gijk ek = ijk ek

donde el factor ijk es +1 (o 1) si ijk es una permutacion par (respectivamente impar) de


123, o cero si hay 2 ndices repetidos.
De esta forma esperamos haber justificado de una manera constructiva el origen de la relacion

ei ej = gijk ek , que generalmente suele presentarse como la definicion tensorial de la
operacion producto vectorial, sin justificacion alguna.

3.7. Bibliografa
Este captulo se basa principalmente en el texto de Bowen y Wang [2], junto con los de Lichne-
rowicz [10] y Bishop y Goldberg [1]. Para mayor profundidad sobre p-formas y calculo exterior se
recomienda el texto de Frankel [7].
Captulo 4

Campos tensoriales

El calculo tensorial es relevante en fsica por sus aplicaciones en teoras de campos, es decir,
teoras donde las variables fsicas pueden representarse por medio de funciones del espacio y el
tiempo. Este tipo de descripcion de la realidad aparecio con la teora de la gravitacion de Newton
(16431727) y se extendio considerablemente a lo largo del s:xix con el electromagnetismo de
Maxwell (18311879) y las ecuaciones de Navier-Stokes para la mecanica de fluidos (Euler (1707
1783), Lagrange (17361813), Navier (17851836), Stokes (18191903), etc.). Desde inicios del s:xx
este tipo de descripcion del mundo fsico tambien se ha aplicado en relatividad (Einstein (1879
1955)) y en mecanica cuantica (Schrodinger (18871961), Heisenberg (19011976), etc.).
Generalmente los campos tensoriales se definen sobre conjuntos de puntos que no cumplen todas
las propiedades necesarias como para formar un espacio vectorial, pero que localmente s tienen
una estructura similar a un espacio vectorial. Este tipo de conjuntos se denominan variedades
(manifolds en la literatura en ingles). Normalmente trabajaremos con variedades diferenciables, es
decir, variedades lo suficientemente regulares como para que en ellas sea posible definir operaciones
de calculo, como derivadas e integrales.
Cuando se habla de un campo tensorial definido sobre una variedad diferenciable, V, se da por
hecho que cada punto r V es el origen de un espacio vectorial denominado espacio tangente,
definido como la envolvente lineal de las tangentes en r a todas las curvas contenidas en V que
pasen por r. El espacio tangente a V en r es, por tanto, el espacio definido por todas las direcciones
posibles que podemos tomar para pasar por dicho punto sin salirnos de la variedad. El conjunto
de los espacios tangentes definidos sobre todos los puntos de la variedad forma el fibrado tangente.
Cada espacio tangente tiene su correspondiente espacio dual, denominado espacio co-tangente, y
la coleccion de espacios cotangentes que obtenemos al recorrer toda la variedad forma el fibrado
cotangente. El producto tensorial de s copias de cada espacio tangente por r copias de su dual
genera una familia de espacios producto tensorial definidos sobre la variedad de partida como
funcion del punto. A este espacio producto tensorial es al que pertenecen los tensores r-covariantes
s-contravariantes definidos sobre la variedad como campos tensoriales.
En este captulo comenzaremos con una breve introduccion a las variedades diferenciables y
los espacios tangente y cotangente. Veremos las parametrizaciones que se emplean para describir
las variedades y las bases a que estas dan lugar en los fibrados tangente y cotangente. Finalmente
extenderemos los conceptos definidos en los captulos precedentes al caso de campos tensoriales en
variedades diferenciables.

81
82 CAPITULO 4. CAMPOS TENSORIALES

4.1. Variedades diferenciables


Con mucha frecuencia los espacios sobre los que se definen los campos tensoriales de interes
en fsica no cumplen todas las propiedades necesarias para ser espacios vectoriales, sino que son
espacios con una estructura mas general, conocidos como variedades diferenciables.

Que es una variedad diferenciable?

Una variedad n-dimensional es cualquier coleccion de puntos localmente similar a un espacio


vectorial de n dimensiones. En esta definicion localmente significa en un cierto entorno alrededor
de cualquier punto de la variedad y similar quiere decir topologicamente equivalente.
Para entender esta definicion es necesario entender que significa ser topologicamente equivalen-
te. Dos conjuntos de puntos son topologicamente equivalentes cuando se puede definir entre ellos
una funcion continua con inversa continua que transforme un conjunto en el otro. Por ejemplo, una
esfera es topologicamente equivalente a un cubo porque podemos deformar una esfera para hacerla
coincidir con un cubo (y viceversa) de manera continua (ver, p. ej., Fig. 4.1). Por el contrario, una
esfera no es equivalente a un toro, ya que para convertir la esfera en un toro es necesario introducir
un corte en la esfera, lo cual no cumple la condicion de continuidad. Un toro, por su parte, es
topologicamente equivalente a una rosquilla (con un unico agujero), o a cualquier objeto con una
sola asa, como por ejemplo una taza.

Figura 4.1: Deformacion continua de una esfera en un cubo.

Dos conjuntos son topologicamente equivalentes cuando podemos convertir uno en otro y vice-
versa de manera continua, es decir, mediante deformaciones pero sin introducir cortes ni pegar
regiones que no estuviesen inicialmente en contacto, ya que esto ultimo implica introducir un corte
en la funcion inversa. La condicion de continuidad impone que dos puntos proximos en el conjunto
de partida (es decir, que pertenezcan a un cierto entorno en el conjunto de partida), esten tambien
proximos en el conjunto de llegada, lo cual no se cumple si la funcion de transformacion (o su
inversa) introduce cortes. La condicion de continuidad tambien presupone que los dos conjuntos
de puntos considerados son espacios topologicos, es decir, espacios en los que se pueden definir no-
ciones como proximidad y continuidad. Las transformaciones continuas con inversa continua entre
espacios topologicos se denominan homeomorfismos.
Una variedad n-dimensional puede definirse, por tanto, como un espacio topologico que admite
un sistema de coordenadas n-dimensional en un cierto entorno abierto de cada punto. Desde el
punto de vista topologico una variedad n-dimensional es localmente identica al correspondiente
espacio vectorial de n dimensiones (Rn en la mayora de los casos). Es decir, cada entorno de
la variedad puede deformarse de manera continua hasta hacerlo coincidir con el correspondiente
4.1. VARIEDADES DIFERENCIABLES 83

Figura 4.2: Ejemplos de variedades monodimensionales contenidas en el plano.

entorno del espacio vectorial y viceversa. La gran diferencia es que, en general, esta correspondencia
(homeomorfismo) entre la variedad y el espacio vectorial solo puede definirse localmente, pero no
globalmente, de forma que globalmente considerada la variedad puede no ser topologicamente
equivalente a ningun espacio vectorial.
Otra diferencia importante es la metrica: en general la distancia entre dos puntos de la variedad
medida a lo largo de la variedad sera diferente de la distancia entre estos dos puntos medida a
lo largo del espacio vectorial al que esta variedad es localmente equivalente, ya que en general
los homeomorfismos introducen deformaciones que no conservan las distancias. En particular esto
sucedera siempre que consideremos variedades dotadas de cierta curvatura localmente homeomorfas
al espacio Eucldeo Rn , que es plano.
Esto es lo que sucede p. ej. en los mapas terrestres. Al hacer corresponder una superficie esferi-
ca con una region del plano, el mapa no solo introduce un factor de escala, sino tambien una
distorsion en las distancias, y por tanto tambien en las areas. Muchos mapas terrestres se basan
en la proyeccion Mercator, que introduce una distorsion creciente a medida que nos alejamos del
ecuador, que finalmente se traduce en que las regiones proximas a los polos tengan sobre el mapa
un tamano aparente muy superior al real. Dependiendo de la funcion de proyeccion empleada las
regiones distorsionadas seran distintas y tambien el tipo de distorsion introducida, pero sea cual sea
el tipo de proyeccion, siempre que representemos una superficie con curvatura en un mapa plano
habra regiones distorsionadas.

4.1.1. Curvas y superficies


Las variedades n-dimensionales aparecen de manera natural al generalizar a n dimensiones los
conceptos de curva y superficie (variedad uni- y bi-dimensional respectivamente).
Una curva contenida en cualquier espacio proporciona el ejemplo no trivial mas sencillo de
variedad. Por ejemplo la recta real, o la grafica de cualquier funcion y = y(x) son variedades unidi-
mensionales. Con frecuencia el conjunto de puntos (x, y) que cumple una ecuacion tipo f (x, y) = 0
para una cierta funcion de dos variables f forma una variedad unidimensional (Fig. 4.2). Esto inclu-
ye tanto los casos en que podemos despejar una variable en funcion de la otra de manera explcita
y univaluada (p. ej. ax + by + c = 0 implica que y = (ax + c) /b) como aquellos casos en los que
esto no es posible, bien porque la forma funcional de f no lo permite o bien porque al despejar
una variable en funcion de la otra obtenemos una funcion multivaluada. Por ejemplo, la solucion
de x2 + y 2 R2 = 0 es una circunferencia de radio R centrada en el origen, pero si despejamos y
( )1/2
en funcion de x encontramos la funcion bi-valuada y = R2 x2 . Muchas variedades unidi-
84 CAPITULO 4. CAMPOS TENSORIALES

mensionales se definen como las curvas de nivel de funciones de dos variables f (x, y), dadas por los
puntos del plano que cumplen f (x, y) = k, lo cual puede visualizarse como la interseccion entre la
superficie z = f (x, y) y el plano z = k.
Aunque cualquier variedad unidimensional contenida en el plano puede definirse como el con-
junto de puntos que cumple una relacion tipo f (x, y) = 0, el recproco no es cierto. Dependiendo
de la funcion f considerada hay casos en los que la ecuacion anterior no define una variedad uni-
dimensional, p. ej., dada la funcion plana f (x, y) = a (que a cualquier punto (x, y) le hace
corresponder el numero constante a, siendo a un numero real arbitrario), el conjunto de puntos que
cumple f (x, y) = 0 es el conjunto vaco para cualquier valor de a, excepto para a = 0 en cuyo caso
obtenemos todo el plano.
En los ejemplos anteriores nos hemos centrado en curvas planas, pero tambien existen curvas
que no estan contenidas en un plano, sino que recorren espacios de dimensionalidad superior. Por
ejemplo, las ecuaciones parametricas
x = R cos , y = R sin , z = , R
definen una espiral infinita de radio R contenida en R3 .
En general una variedad unidimensional es cualquier conjunto de puntos tal que que en un
entorno de cada punto pueda parametrizarse por medio de un unico parametro.
Las superficies proporcionan el siguiente ejemplo interesante de variedad. De manera analoga
al caso unidimensional, la grafica de una funcion de 2 variables, z = f (x, y), es una variedad
bidimensional. Con mucha frecuencia las superficies de nivel de las funciones de 3 variables, dadas
por la solucion de f (x, y, z) = k, o el conjunto de puntos de R3 definido por una relacion del tipo
f (x, y, z) = 0, forman variedades bidimensionales (vease Fig. 4.3). Por ejemplo, dada la funcion
f (x, y, z) = x2 + y 2 + z 2 , las superficies de nivel de esta funcion son superficies esfericas de radio
k 1/2 centradas en el origen. Este ejemplo tambien es interesante para observar que, en general,
una superficie cualquiera considerada globalmente no sera topologicamente equivalente a R2 , pero
localmente s, ya que si nos fijamos en un entorno suficientemente pequeno alrededor de cualquier
punto de la superficie tenemos un conjunto de puntos bastante similar (es decir, topologicamente
equivalente) al correspondiente entorno en R2 .
En los ejemplos anteriores hemos mencionado variedades bidimensionales contenidas en un espa-
cio tridimensional, pero analogamente a como suceda con las curvas, una variedad bidimensional no
tiene porque estar contenida en R3 , sino que puede ocupar un espacio de dimensionalidad superior.
Una variedad bidimensional se define como cualquier conjunto de puntos que pueda parame-
trizarse (al menos localmente) por medio de dos parametros.
Con mucha frecuencia el conjunto de puntos que forma una variedad se define como el conjunto
de puntos de un cierto espacio de variables que cumple una determinada condicion, dada por una
ecuacion o sistema de ecuaciones. Por ejemplo, la s-esfera de radio unidad es la hipersuperficie
s-dimensional dada por el conjunto de puntos de Rs+1 que cumple
( 1 )2 ( )2
x + + xs+1 = 1.
El concepto de variedad es muy general: una variedad no tiene por que ser necesariamente
conexa, tampoco tiene por que ser cerrada o finita. Por ejemplo, el conjunto de puntos de R2
que cumple la ecuacion xy = 1 es una hiperbola, con dos ramas no conexas ( cada) una de ellas
con extension infinita; el conjunto de puntos de R2 que cumple la ecuacion y x2 (y + 1) = 0
esta formado por dos curvas, la parabola y = x2 y la recta y = 1.
4.1. VARIEDADES DIFERENCIABLES 85

R
Figura 4.3: Ejemplos de variedades bidimensionales contenidas en 3 . En la imagen central
se ha representado tambien el plano z = 1 y en la ultima el plano z = 0.

4.1.2. Geometra intrnseca y extrnseca

En el estudio de variedades diferenciables existen dos puntos de vista opuestos: o bien podemos
considerar la variedad de manera abstracta, sin hacer referencia a ningun espacio de dimensionalidad
superior donde pueda estar contenida, o bien podemos considerar que la variedad es un subconjunto
de un cierto espacio ambiente que la contiene.

Las propiedades que pueden estudiarse sin hacer referencia a ningun espacio ambiente depen-
den exclusivamente de la variedad y se denominan propiedades intrnsecas y su estudio geometra
intrnseca de la variedad. Por el contrario, las propiedades para cuyo estudio es necesario considerar
a la variedad como parte de un espacio ambiente se denominan propiedades extrnsecas, ya que no
solo dependen de la variedad sino tambien del espacio ambiente.

Desde el punto de vista matematico la geometra intrnseca es especialmente relevante. En ge-


neral la dimensionalidad de una variedad es una propiedad intrnseca; en el caso de una curva su
longitud es una propiedad intrnseca, pero no lo son su curvatura o torsion; en cuanto a las varieda-
des bidimensionales, en la segunda parte del curso veremos que la primera forma fundamental (que
determina medidas de longitudes, angulos y areas sobre una superficie) es una propiedad intrnseca,
as como la curvatura de Gauss (que determina localmente la forma de una superficie). El punto de
vista intrnseco es el que se adopta en relatividad general para estudiar la geometra del espacio-
tiempo (su curvatura etc.), sin hacer referencia a un hipotetico espacio de dimensionalidad superior
que lo contenga, lo cual resultara muy artificial. De todas formas tambien existen multitud de
problemas en fsica en los que es relevante el punto de vista extrnseco, que resulta mas sencillo e
intuitivo. De hecho, en el desarrollo de la geometra diferencial el punto de vista extrnseco fue el
primero que se considero.

Desde el punto de vista extrnseco una variedad diferenciable n-dimensional puede definirse
como el conjunto de puntos de un cierto espacio vectorial de n + r dimensiones (p. ej. Rn+r ) que
86 CAPITULO 4. CAMPOS TENSORIALES

cumple un cierto sistema de r ecuaciones implcitas


( )
f1 x1 , x2 , . . . , xn+r = 0
( )
f2 x1 , x2 , . . . , xn+r = 0
... ... ...
( 1 2 n+r
)
fr x , x , . . . , x =0 (4.1)

donde las r funciones fi anteriores son independientes entre s y cumplen ciertas propiedades adi-
cionales. Por ejemplo, dos condiciones f (x, y, z) = 0 y g(x, y, z) = 0 en R3 determinan una curva,
dada por la interseccion de las superficies definidas por cada una de estas condiciones.
Es evidente que el conjunto de puntos definido por un sistema como el anterior (Eq. (4.1)) no
siempre define una variedad. Por ejemplo, el conjunto de puntos de R2 que cumplen la condicion
xy = 0 esta dado por los ejes x e y, este conjunto no es una variedad 1-dimensional, ya que cualquier
entorno abierto que contenga el origen no es topologicamente equivalente a un entorno de la recta
o a ningun espacio vectorial.

Que condiciones debe cumplir el sistema Ec. (4.1) para definir una variedad?
{ }
Supongamos que el punto x0 = x10 , x20 , . . . , xn+r
0 cumple el sistema Ec. (4.1) y que las r
funciones fi son (1) continuas y (2) diferenciables en un entorno de x0 . Entonces, segun el
teorema de la funcion implcita el sistema Ec. (4.1) define una variedad n-dimensional, al menos
en un cierto entorno de x0 , si y solo si (3) el rango de la matriz jacobiana del sistema (J)

f1 f1 f1 f1
... ...
x1 xn xn+1 xn+r

J = ... ... ... ... ... ... (4.2)

fr fr fr fr
x1
... xn xn+1
... xn+r

en el punto x0 es r. Si se cumple esta condicion el teorema de la funcion implcita garantiza que,


al menos en un cierto entorno de x0 , podemos despejar r variables en funcion de las restantes n
( )
xn+1 = xn+1 x1 , . . . , xn
( )
xn+2 = xn+2 x1 , . . . , xn
... ... ... ...
( )
xn+r = xn+r x1 , . . . , xn (4.3)

donde hemos tomado las r variables que podemos despejar como las r ultimas. De esta forma en
un entorno de x0 los puntos { de Rn+r que } cumplen el sistema Ec. (4.1) pueden parametrizarse en
terminos de las coordenadas x1 , . . . , xn , y por tanto en dicho entorno constituyen una variedad
n-dimensional.
Si estas 3 condiciones se cumplen en un cierto entorno de todos los puntos x0 que verifican
el sistema Ec. (4.1), entonces esta coleccion de condiciones define una variedad diferenciable n-
dimensional contenida en Rn+r .
De hecho, aproximando en Ec. (4.1) cada fi por su desarrollo en serie de Taylor hasta or-
den 1 en torno a x0 , es muy sencillo demostrar que la condicion necesaria para poder despejar
4.1. VARIEDADES DIFERENCIABLES 87

{ n+1 } { }
x , . . . , xn+r como funcion de las restantes x1 , . . . , xn en un entorno del punto x0 es preci-
samente que la matriz
f1 f1
. . .
x n+1 x n+r


... ... ... (4.4)

fr
xn+1
. . . xfn+r
r

sea invertible.
El mismo razonamiento que acabamos de emplear puede repetirse suponiendo que el espacio
en el que esta definido el sistema Ec. (4.1) no es un espacio vectorial, sino una variedad n + r-
dimensional parametrizada (localmente) por unas coordenadas xi . En ese caso, cuando se cumplen
las condiciones (1), (2) y (3) el sistema Ec. (4.1) define una sub-variedad.

Codimension e hipersuperficies
Dada una variedad n-dimensional contenida en un espacio vectorial N -dimensional, se define
la co-dimension de la variedad como la diferencia N n. En el caso de una variedad definida por
un sistema de ecuaciones como el anterior (Eq. (4.1)) la co-dimension esta dada por el numero de
restricciones que define la variedad dentro del espacio ambiente.
De manera analoga al caso de una superficie contenida en R3 , que es una variedad de co-
dimension 1, se denomina hipersuperficie a cualquier variedad n-dimensional contenida en un espacio
de n + 1 dimensiones, es decir, cualquier variedad de codimension 1, y se denomina hiperplano a
cualquier hipersuperficie con curvatura nula.

4.1.3. Ejemplos de variedades en fsica


En fsica constantemente manejamos ecuaciones que dan lugar a variedades definidas en el
espacio de variables del sistema. En algunos casos estas variedades pueden tener una estructura
sencilla, en otros puede ser muy complicada y en cualquier caso seran difciles de visualizar si
la dimensionalidad es alta. Todas las ramas de la fsica proporcionan ejemplos interesantes de
variedades. Por ejemplo, en mecanica de fluidos tenemos las lneas de corriente de un campo de
velocidades v = {vx , vy , vz }, dadas por la solucion de

dx dy dz
= =
vx vy vz

Cada lnea de corriente es una variedad uni-dimensional contenida en R3 ; en electromagnetismo


tenemos las superficies equipotenciales de un campo electrico (dadas por V (x, y, z) = k), que definen
una familia de variedades bi-dimensionales. A nada que pensemos en ello esta claro que surgen
multitud de ejemplos. Veamos algunos ejemplos de variedades en mecanica clasica y termodinamica.

Mecanica clasica
Para visualizar de manera global el comportamiento de sistemas mecanicos suele emplearse
el plano de fases, definido como el conjunto de todas las trayectorias posibles en el espacio de
posiciones r y momentos lineales p = m dr/dt del sistema. En el caso de sistemas conservativos
las trayectorias en el plano de fases estan dadas por los puntos (r, p) que cumplen la ecuacion
de conservacion de la energa K + U = E (siendo K = p2 /(2m) la energa cinetica, U = U (r) la
88 CAPITULO 4. CAMPOS TENSORIALES

energa potencial y E la energa total del sistema), es decir, las curvas de nivel de la funcion energa
total. Haciendo que varen las condiciones iniciales (r(0) y p(0)) podemos ir calculando todas las
trayectorias posibles, y su representacion en el plano de fases proporciona mucha informacion sobre
los posibles comportamientos del sistema.
Un ejemplo interesante y muy sencillo es el oscilador armonico unidimensional. En ese caso el
potencial es V (x) = kx2 /2 y la ecuacion de conservacion de la energa (p2 /(2m) + V (x) = E) da
lugar a la familia de elipses con semiejes xmax y pmax
x2 p2
+ =1
x2max p2max

en el plano
de fases, donde la elongacion maxima es x max = 2E/k y el momento maximo es
pmax = 2mE.
Conceptualmente el mapa de fases es muy util, pero la visualizacion de las trayectorias puede
ser complicada en algunos casos, ya que la dimensionalidad de la variedad K + U = E depende
del sistema considerado, pudiendo llegar a ser muy elevada. Para el movimiento unidimensional
de una partcula puntual el plano de fases es bi-dimensional y la condicion de conservacion de la
energa define una variedad uni-dimensional; para una partcula puntual en 2 (respectivamente 3)
dimensiones el plano de fases tiene 4 (respectivamente 6) dimensiones y la variedad K + U = E
es una hipersuperficie de 3 (respectivamente 5) dimensiones. En general, si tenemos n grados de
libertad en lo que respecta a la posicion, la dimensionalidad del plano de fases sera 2n y la condicion
de conservacion de la energa define una variedad (2n 1)-dimensional (o de co-dimension 1), en
algunos casos esta dimensionalidad puede ser alta. Por ejemplo, un solido rgido en 3 dimensiones
tiene 6 grados de libertad en lo que respecta a su posicion (3 coordenadas para la posicion del centro
de masas y otras 3 para la orientacion del cuerpo en el espacio); otros ejemplos con dimensionalidad
elevada son un solido articulado con muchos grados de libertad, o, por supuesto, un sistema de
muchas partculas puntuales.
Otro caso interesante y facil de visualizar es el
pendulo simple bajo la accion de la gravedad (figura
4.4). El momento lineal en este caso es mL y la energa
potencial (mgh) queda como mgL (1 cos ), de modo
que la trayectoria en el plano de fases correspondiente L
a una energa total E esta dada por la curva
1 cos p2
+ 2 =1
1 cos max pmax
donde el momento maximo pmax vuelve a estar da-
do por 2mE y 1 cos max es igual a 2E/Es , sien-
do Es = 2mgL la energa mnima necesaria para que h
mg
el pendulo llegue a dar una vuelta completa. Para
energas por debajo de Es las curvas que obtenemos
en el plano de fases son cerradas, lo que significa que el
pendulo oscila siendo max el angulo maximo alcanza- Figura 4.4: El pendulo simple.
do. Por el contrario, para E > Es estas curvas ya no son cerradas, el pendulo no oscila sino que da
vueltas completas, de forma que no existe angulo maximo. En el lmite E/Es 1 las oscilaciones
tienen amplitud muy pequena, y la anterior variedad se aproxima a la familia de elipses
2 p2
2
+ =1
max p2max
4.1. VARIEDADES DIFERENCIABLES 89

Figura 4.5: Plano de fases de un pendulo simple. La trayectoria marcada en rojo (E = Es )


es la separatriz entre las trayectorias cerradas (E < Es ) y las abiertas (E > Es ).

(tal y como puede comprobarse por medio del desarrollo en serie de Taylor de cos ) que corresponde
a un oscilador armonico de constante recuperadora k = mg/L. En la figura 4.5 se ha representado
el plano de fases de un pendulo simple, mostrando el tipo de comportamiento que observaremos en
funcion del parametro adimensional E/Es .
Aparte de la dimensionalidad, otra dificultad que existe en mecanica clasica para visualizar las
hipersuperficies de nivel E(r, p) = E en el plano de fases es la propia estructura de estas varieda-
des. En particular, si la dimensionalidad del plano de fases es superior a 2 existe la posibilidad de
encontrar comportamiento caotico (teorema de Poincare-Bendixson), en cuyo caso la estructura de
las hipersuperficies correspondientes a un determinado nivel de energa sera extraordinariamente
complicada. Como ya hemos mencionado antes una condicion como K + U = E no siempre ge-
nerara una variedad diferenciable, sino que en algunos casos puede dar lugar a estructuras mas
complicadas, no equivalentes a ningun espacio vectorial ni siquiera localmente. En el caso de un sis-
tema con dinamica caotica las hipersuperficies K + U = E se retuercen sobre s mismas de manera
extraordinariamente complicada, generando estructuras que llenan densamente el espacio de fases,
con una topologa diferente a la de un espacio vectorial, incluso localmente. En algunos casos estas
estructuras son auto-similares bajo cambios de escala, lo que las convierte en estructuras fractales.

Termodinamica
Las variables de presion p, temperatura absoluta T y densidad de una sustancia pura en
equilibrio termodinamico estan relacionadas entre s por una ecuacion de estado del tipo f (p, T, ) =
0, donde la forma de la funcion f depende de la naturaleza del sistema considerado. Por ejemplo,
para un gas ideal con masa molar m tenemos f (p, T, ) = pm RT . La condicion de equilibrio
termodinamico da lugar por tanto a una superficie en el espacio de variables (p, T, ). Por ejemplo,
la ecuacion de estado de van der Waals para una sustancia pura es

p 8T /Tc ( v )2
c
= 3
pc 3v/vc 1 v
90 CAPITULO 4. CAMPOS TENSORIALES

Figura 4.6: Isotermas de un fluido de van der Waals. Las lneas rojas corresponden al fluido
supercrtico, las azules a la fase lquida y las verdes a la fase gas.

donde v es el volumen molar y el subndice c se refiere al punto crtico de la transicion lquido-vapor.


La figura 4.6 muestra la superficie a que da lugar esta ecuacion de estado. Como puede apreciarse,
para v/vc suficientemente elevado recuperamos el comportamiento de un gas ideal, mientras que
para temperaturas subcrticas existe un corte correspondiente al cambio de fase lquido-vapor.
Si en lugar de una sustancia pura tenemos una mezcla bi-componente la ecuacion de estado
dependera tambien de una variable adicional, que describa la composicion de la mezcla. En ese caso
los estados de equilibrio forman una variedad tri-dimensional en el espacio de presion, temperatura,
densidad y composicion. Si consideramos mezclas de mas de dos sustancias, cada sustancia adicional
incrementa en una unidad el numero de variables termodinamicas del sistema, de forma que para
una mezcla multi-componente el conjunto de puntos correspondientes a estados de equilibrio forma
una variedad de dimensionalidad elevada, cuya forma puede ser muy complicada.
Aparte de la variedad correspondiente a estados de equilibrio, en termodinamica se manejan
constantemente variedades definidas por multitud de restricciones aplicadas sobre las variables
termodinamicas. Los casos de transformaciones isobaras (presion constante), isocoras (volumen
constante) e isotermas (temperatura constante) son especialmente frecuentes. Es interesante obser-
var que fue precisamente Josiah Willard Gibbs, una de las principales figuras en la historia de la
termodinamica y la mecanica estadstica, quien desarrollo gran parte del calculo vectorial moderno
al formular el aparato matematico necesario en termodinamica.

Relatividad

La teora de la relatividad emplea tambien el concepto de variedad diferenciable, siendo el


espacio-tiempo que habitamos una de las variedades de mayor interes en fsica teorica. Las obser-
4.1. VARIEDADES DIFERENCIABLES 91

vaciones de que disponemos en la actualidad parecen indicar que el espacio-tiempo es una varie-
dad diferenciable pseudo-Riemanniana de 4 dimensiones. El anterior prefijo pseudo- refleja que
segun la teora de la relatividad la metrica del espacio-tiempo no cumple todas las propiedades
que normalmente se exigen a una funcion distancia. La gran diferencia esta en que la metrica
del espacio-tiempo relativista no es definida positiva, sino que existen ciertos vectores (llamados
de genero luz) que a pesar de no ser nulos tienen norma nula; por otra parte existen tambien
vectores llamados de genero tiempo con norma negativa y vectores llamados de genero espacio
con norma positiva, de tal forma que la distancia espacio-temporal entre dos sucesos separados por
un vector de genero (respectivamente) tiempo, luz o espacio es (respectivamente) negativa, nula o
positiva (todo esto empleando la convencion tipo espacio, con signatura metrica +++, los signos
se invierten si empleamos la convencion tipo tiempo).
Como consecuencia la geometra del espacio-tiempo relativista es distinta de la habitual geo-
metra de Rn , incluso en el caso del espacio-tiempo plano de la relatividad especial (el espacio
de Minkowski). En ultima instancia esto hace que en el lmite no relativista (a velocidades bajas
comparadas con la de la luz y lejos de singularidades espacio-temporales, como agujeros negros) la
coordenada temporal aparezca como una variable cualitativamente distinta de las espaciales, que
por su parte forman un espacio vectorial que en la practica es indistinguible del espacio Eucldeo
de 3 dimensiones.

4.1.4. Diferenciabilidad y parametrizaciones


Hasta ahora hemos hablado de variedades sin prestar demasiada atencion a la condicion de
diferenciabilidad. Desde el punto de vista de las aplicaciones en fsica estamos interesados princi-
palmente en variedades sobre las que es posible definir operaciones como derivadas e integrales,
de manera analoga a como se definen estas operaciones en el familiar espacio Eucldeo Rn . Estas
operaciones son necesarias para calcular multitud de magnitudes habituales en fsica, como por
ejemplo velocidades y gradientes (definidos en funcion de derivadas direccionales), o longitudes y
areas (definidas en terminos de integrales). Las variedades en las que es posible definir este tipo de
operaciones se denominan variedades diferenciables.
Para definir operaciones como derivacion e integracion en variedades diferenciables es necesa-
rio definir antes un sistema de coordenadas generalizadas que parametrice la variedad (al menos
localmente), y que nos permita describir desplazamientos a lo largo de la variedad. Por ejemplo, en
Rn podemos calcular derivadas direccionales en terminos de derivadas respecto de las coordenadas
espaciales que describen la posicion de cada punto del espacio. En un espacio vectorial cualquier
punto del espacio queda descrito por sus coordenadas respecto de una base cualquiera, en el caso
de una variedad diferenciable este concepto no es aplicable.

Como asignamos coordenadas a los puntos de una variedad diferenciable?

En un entorno alrededor de cada punto de una variedad n-dimensional sabemos que esta es
similar (topologicamente equivalente) al correspondiente entorno de un espacio vectorial de n di-
mensiones (en la mayora de los casos Rn ). Por tanto, en un entorno de cualquier punto podemos
definir una coleccion de n funciones reales continuas con inversa continua (homeomorfismos) tales
que a cada punto de dicho entorno le hagan corresponder un punto del espacio vectorial Rn , cuyas
coordenadas en Rn (o cualquier funcion continua y diferenciable con inversa continua y diferenciable
de las mismas) pueden emplearse como coordenadas del punto de la variedad.
En una variedad diferenciable n-dimensional esta coleccion de n homeomorfismos define por
tanto unas coordenadas generalizadas que parametrizan una determinada region finita de la varie-
92 CAPITULO 4. CAMPOS TENSORIALES

Figura 4.7: Parametrizacion de una variedad diferenciable.

dad. Un conjunto de funciones como el mencionado se denomina mapa, por analoga con los mapas
geograficos, que hacen corresponder cada punto de una zona de la superficie terrestre con un punto
de una representacion bidimensional plana. En general para describir una variedad no bastara con
un unico mapa, valido a lo largo de toda la variedad, sino que sera necesario emplear una coleccion
de cierto numero de mapas, cada uno de ellos valido solo en una determinada region, de tal forma
que el conjunto completo de todos estos mapas llegue a cubrir la totalidad de la variedad. Dicho
conjunto completo de mapas se denomina logicamente atlas.
La condicion que distingue a una variedad diferenciable es que todos los mapas que relacionan
cada region de la variedad con la correspondiente region de Rn deben ser diferenciables (ademas
de continuos con inversa continua). De esta forma, al mover un punto a lo largo de la variedad de
manera continua y diferenciable, sus coordenadas en el mapa que representa esta variedad en Rn
varan de forma continua y diferenciable, lo cual nos permite calcular derivadas e integrales a lo
largo de la variedad en terminos de derivadas e integrales respecto de las coordenadas generalizadas
que estemos empleando.
Los mapas empleados para definir las coordenadas generalizadas en una variedad diferenciable
son por tanto homeomorfismos diferenciables, este tipo de funciones se denominan difeomorfismos.
Para garantizar que sobre la variedad podemos realizar derivadas espaciales de orden arbitra-
riamente alto, los difeomorfismos que mapean la variedad en Rn deben tener infinitas derivadas
continuas, es decir, deben ser funciones de clase C . En este curso denominaremos funciones sua-
ves a las funciones de clase C . Por otra parte, si sobre una determinada region en una variedad
diferenciable es posible definir dos parametrizaciones diferentes, la condicion de diferenciabilidad
impone que estas deben ser compatibles entre s, es decir, debe existir una funcion invertible de clase
C que transforme un mapa en el otro, al menos en la region donde ambos son simultaneamente
validos, dicha funcion se denomina cambio de coordenadas.
Esto ultimo es especialmente importante en aquellos casos en los que resulta imposible describir
la variedad completa por medio de una sola parametrizacion. En esos casos sera necesario emplear
distintas parametrizaciones validas en distintas regiones de la variedad, y la condicion de diferen-
ciabilidad de la variedad impone que dichos mapas deben ser compatibles en la interseccion entre
los dominios de definicion correspondientes.
Las condiciones anteriores pueden resumirse de la siguiente forma. Dada la variedad diferen-
ciable n-dimensional V, localmente homeomorfa a Rn :
Coordenadas generalizadas:
4.1. VARIEDADES DIFERENCIABLES 93

La variedad esta parametrizada por un atlas, dado por un cierto numero de homeomor-
fismos definidos sobre determinadas regiones i de la variedad en Rn
fi : i Rn (4.5)
de forma que cada uno de estos mapas fi define un sistema de coordenadas generalizadas
valido en una cierta region i V
fi (v) = {xk (v)}nk=1 v i (4.6)
donde la superposicion de los dominios de definicion de todos estos mapas recubre la
variedad en su conjunto
V= i . (4.7)
i
Condicion de diferenciabilidad de las coordenadas generalizadas:
Si la variedad es diferenciable todos estos mapas deben ser homeomorfismos diferencia-
bles, es decir, difeomorfismos.
En general en este curso supondremos que las funciones que definen las coordenadas
generalizadas sobre una variedad diferenciable son funciones invertibles de clase C .
Condicion de compatibilidad entre coordenadas generalizadas:
Dados los mapas f y g validos en las regiones f y g , que definen respectivamente las
coordenadas generalizadas
{xk (v)}nk=1 = f (v) y {yk (v)}nk=1 = g(v), (4.8)
si la interseccion f g no es nula entonces la condicion de diferenciabilidad impone que
existen dos funciones invertibles de clase C ( y 1 ) que transforman las coordenadas
generalizadas {yk (v)}nk=1 en las {xk (v)}nk=1 y viceversa
{xk (v)}nk=1 = ({yk (v)}nk=1 ) , {yk (v)}nk=1 = 1 ({xk (v)}nk=1 ) . (4.9)
Es muy facil ver que y su inversa estan dadas respectivamente por
( ) [ ]
= f g 1 , ({yk (v)}nk=1 ) = f g 1 ({yk (v)}nk=1 ) (4.10)
( ) [ ]
1 = g f 1 , 1 ({xk (v)}nk=1 ) = g f 1 ({xk (v)}nk=1 ) . (4.11)

Las variedades diferenciables son los dominios mas generales sobre los que es posible definir
operaciones de calculo. Cuando se cumplen todas las condiciones anteriores podemos emplear las
coordenadas generalizadas para calcular derivadas o integrales sobre la variedad por medio de
las correspondientes derivadas o integrales respecto de las coordenadas generalizadas. Al hacer
esto debemos tener en cuenta que si la variedad considerada tiene cierta curvatura, su metrica
no coincidira con la del espacio Eucldeo Rn . Esto tiene importantes consecuencias a la hora de
medir distancias, angulos o areas sobre una variedad y tambien a la hora de calcular derivadas
direccionales. En general el calculo de derivadas direccionales a lo largo de variedades diferenciables
n-dimensionales y el analisis de su metrica (incluyendo medidas de curvaturas, distancias, angulos,
areas, volumenes, etc.) son los objetos de estudio de la geometra diferencial. En el proximo captulo
veremos como se calculan derivadas direccionales en variedades diferenciables y en la segunda parte
del curso veremos como se calculan curvaturas, distancias, angulos y areas en el caso de variedades
de una y dos dimensiones, es decir, curvas y superficies.
94 CAPITULO 4. CAMPOS TENSORIALES

g
y2

y1

x2

x1

f
Figura 4.8: Compatibilidad entre coordenadas generalizadas de una variedad diferenciable.

Variedades Riemannianas
El concepto de variedad generaliza el concepto de espacio vectorial a conjuntos de puntos
con estructuras mas complicadas. Con mucha frecuencia consideraremos variedades diferenciables
localmente homeomorfas al espacio Rn con metrica no Eucldea en el plano tangente. En general se
define una variedad Riemanniana como cualquier variedad diferenciable n dimensional con metrica
de Riemann en el espacio tangente, de tal forma que la metrica esta descrita por un tensor metrico
gij que vara de forma continua y diferenciable a lo largo de la variedad.

4.1.5. Ejemplos de variedades y parametrizaciones


El espacio Rn
Es evidente que el propio espacio vectorial Rn constituye una variedad diferenciable n-dimensional.
Como parametrizacion trivial de esta variedad podemos considerar las propias coordenadas carte-
sianas xi , y como coordenadas generalizadas cualquier funcion (invertible y C ) de las anteriores.
Veamos algunos ejemplos:
En dos dimensiones por ejemplo podemos definir las coordenadas polares (r, ) dadas por

x = r cos ; r = x2 + y 2 , r [0, ];
y
y = r sin ; = arctan , [0, 2] (4.12)
x
En tres dimensiones son muy habituales las coordenadas cilndricas (, , z)

x = cos ; = x2 + y 2 , [0, ];
y
y = sin ; = arctan , [0, 2] (4.13)
x
y las coordenadas esfericas (r, , )

x = r sin cos ; r= x2 + y 2 + z 2 , r [0, ];
z
y = r sin sin ; = arc cos , [0, ]
r
y
z = r cos ; = arctan , [0, 2] (4.14)
x
4.1. VARIEDADES DIFERENCIABLES 95

Parametrizacion de curvas
En general una curva en Rn puede definirse mediante las n ecuaciones parametricas que definen
las coordenadas de un punto sobre la curva en funcion de un parametro ,

x1 = x1 ()
x2 = x2 ()
... ... ...
xn = xn () (4.15)

de tal forma que cuando recorre un cierto intervalo de la recta real (p. ej. [0, 1]) el punto
x() recorre la curva completa, desde el punto inicial (x( = 0)) hasta el final (x( = 1)). De esta
manera el parametro es la coordenada generalizada que define la posicion de cualquier punto
sobre la curva.
En algunos casos se pueden tomar parametros que tengan un significado geometrico evidente.
Por ejemplo, las relaciones

x = cos , y = sin , [0, 2] (4.16)

definen una circunferencia de radio unidad en la que la coordenada generalizada es el angulo


formado por el punto considerado con el eje x. Otro ejemplo, la relacion y = y(x) define la curva
dada por la grafica de la funcion y(x) en terminos del parametro x, lo que equivale a las ecuaciones
parametricas x = , y = y().
Otro ejemplo muy importante es el parametro longitud de arco, definido como la longitud reco-
rrida a lo largo de la curva a partir de un cierto punto que tomamos como origen. Como veremos
en geometra diferencial, en el estudio de curvas el parametro longitud de arco es el que genera la
descripcion mas sencilla posible de la curva.

Parametrizacion de superficies
Las superficies se caracterizan por tener 2 grados de libertad, lo que implica que para recorrer
una superficie debemos emplear 2 coordenadas generalizadas. Las ecuaciones parametricas de una
superficie contenida en Rn tendran por tanto la forma general siguiente

x1 = x1 (, )
x2 = x2 (, )
... ... ...
xn = xn (, ) (4.17)

de manera que cuando los parametros y recorren sus correspondientes dominios de definicion el
punto x(, ) recorre la superficie. Los parametros y definen de esta forma unas coordenadas
generalizadas que nos permiten describir la superficie.
Por ejemplo, la definicion de las coordenadas esfericas en R3 con r = const. proporciona una
parametrizacion de la superficie esferica de radio r centrada en el origen en terminos de las coor-
denadas generalizadas y (aunque este mapa no es valido cerca de los polos = 0 y = ).
Otro ejemplo, en la grafica de una funcion de dos variables z = f (x, y) las propias variables x e y
proporcionan las coordenadas generalizadas necesarias para la parametrizacion de la superficie.
96 CAPITULO 4. CAMPOS TENSORIALES

La parametrizacion global de la superficie por medio de un unico mapa no sera posible en


aquellos casos en los que tengamos una superficie definida de manera implcita por una condicion
del tipo f (x, y, z) = 0 en la que resulte imposible despejar ninguna de las variables en funcion
de las restantes de manera suave y univaluada. En esos casos no sera posible parametrizar la
superficie con un unico mapa, tal y como se ha asumido en Eq. (4.17) sino que sera necesario
emplear varios mapas para describir distintas regiones de la superficie. Esto es lo que sucede por
ejemplo si queremos describir una superficie esferica (con r = 1, centrada en el origen) empleando
las coordenadas x e y como coordenadas generalizadas, en esecaso es necesario emplear al menos
2 mapas: z = + x2 + y 2 1 para la mitad superior y z = x2 + y 2 1 para la mitad inferior.

4.2. Fibrados tangente y cotangente


El espacio tangente a una variedad diferenciable n-dimensional V en el punto r V se define
como la envolvente lineal de las tangentes en r a todas las curvas contenidas en la variedad que pasen
por dicho punto. Por supuesto, estamos dando por hecho que las curvas a las que nos referimos son
continuas y diferenciables. El ejemplo mas visual en fsica consiste en identificar la curva parametrica
r() con la trayectoria de un punto y el parametro con el tiempo; en ese caso la derivada de
r respecto del parametro es el vector velocidad, de modo que el espacio tangente es el definido
por los vectores velocidad de todas las trayectorias, continuas, diferenciables y contenidas en la
variedad, que pasen por el punto en consideracion.
Intuitivamente el espacio tangente a una variedad en un punto representa todas las direcciones
posibles que podemos tomar en V para pasar por dicho punto sin salirnos de la variedad. Por
ejemplo, si la variedad de partida es la superficie de una esfera, el espacio tangente en un punto
es el plano tangente a la esfera en dicho punto; si la variedad de partida es una superficie en R3 ,
el espacio tangente en cualquier punto es el plano tangente a la superficie en dicho punto. Esto
implica que la dimensionalidad del espacio tangente coincide con la de la variedad considerada.
Una vez definido el espacio tangente en un punto, se define el fibrado tangente como el conjunto
de todos los espacios tangentes que se obtiene al recorrer la variedad completa (r V). Por otra
parte, el dual al espacio tangente en cada punto se define como el espacio co-tangente en dicho
punto, y el conjunto de todos los espacios cotangentes definidos sobre toda la variedad se define
como el fibrado cotangente. El producto tensorial de s copias de cada espacio tangente por r copias
de su dual genera un espacio producto tensorial definido como funcion del punto en V. A este
espacio pertenecen los tensores (o, en general, las densidades tensoriales) definidas como funcion
del punto sobre la variedad.
Todos los conceptos definidos en los captulos precedentes sobre comportamiento tensorial son
aplicables, sin ninguna modificacion, al caso de tensores definidos como funcion del punto sobre
una variedad diferenciable. La unica diferencia es que ahora, en lugar de un unico espacio vectorial,
tenemos una coleccion de espacios vectoriales definidos como funcion del punto sobre la variedad
diferenciable.

4.2.1. Espacio tangente a un espacio vectorial


Para familiarizarnos mas con el concepto de espacio tangente veamos primero el caso en que la
variedad diferenciable considerada es, ella misma, un espacio vectorial. Dado un espacio vectorial E
de n dimensiones y la base {ei }ni=1 , cualquier punto del espacio queda descrito por sus coordenadas
xi respecto de dicha base. Una curva parametrica contenida en E esta dada por la coleccion de n
funciones xi () (continuas y diferenciables), con definido en un cierto intervalo (p. ej. [0, 1]).
4.2. FIBRADOS TANGENTE Y COTANGENTE 97

z
v(t)

r(t)

Figura 4.9: Partcula movil en R3 .

El vector dado por la diferencia entre los valores de x sobre esta curva correspondientes a dos
valores de infinitamente proximos

vd = x( + d) x() (4.18)

es un vector que pertenece a un espacio vectorial identico a E, ya que es combinacion lineal de


vectores de E. Dicho vector diferencia, situado con origen en el punto x(), es tangente a la
curva considerada y por tanto pertenece al espacio tangente a E en el punto x(). Por otra parte,
esta claro que considerando distintas curvas x() podemos generar cualquier vector de E como
vector velocidad. Como consecuencia:
El espacio tangente a un espacio vectorial E en el punto r E esta dado por una copia de
dicho espacio E pero con origen en el punto r.
Con esto recuperamos la imagen intuitiva habitual, segun la cual para pasar de un espacio
vectorial al espacio tangente en un determinado punto basta con desplazar el origen del espacio a
dicho punto. El espacio dual al espacio tangente en un punto se define como espacio co-tangente en
ese punto. Por tanto el espacio co-tangente a un espacio vectorial en un punto determinado es un
espacio identico al dual del espacio vectorial de partida, pero con origen en el punto considerado.
Una vez definidos los espacios tangente y cotangente como funcion del punto, el conjunto de estos
espacios que obtenemos al recorrer el espacio de partida completo define (respectivamente) los
fibrados tangente y el cotangente. El fibrado tangente de un espacio vectorial es algo muy familiar,
ya que es lo que se ha estado manejando tacitamente al estudiar, p. ej., trayectorias de partculas
puntuales en R3 , donde el vector velocidad es un vector perteneciente al fibrado tangente a R3 en
el punto en donde se encuentre la partcula (Fig. 4.9).

4.2.2. Espacio tangente de una variedad diferenciable


El espacio tangente a un espacio vectorial es un espacio vectorial, segun acabamos de ver. Veamos
que el espacio tangente tambien es un espacio vectorial si el espacio de partida es solamente una
variedad diferenciable:
Consideramos una curva parametrica r() definida sobre la variedad V. El vector velocidad
de esta curva es v = dr()/d, que es tangente a la curva. Supongamos que en un entorno del
98 CAPITULO 4. CAMPOS TENSORIALES

punto de interes hemos definido un sistema de coordenadas generalizadas xi , por medio de un


difeomorfismo (U ) entre la variedad V y un espacio vectorial E de n dimensiones. En este sistema
de coordenadas r = U (x), donde x E esta dado por las coordenadas cartesianas xi . La curva
parametrica r() V esta dada por la imagen resultado de aplicar U sobre la correspondiente
curva parametrica x() E
r() = U (x()) (4.19)
El vector tangente v puede calcularse, entonces, por medio de la regla de la cadena

U (x) dxi
v() = (4.20)
xi d
Considerar diferentes curvas r() implica, claramente, considerar diferentes valores para dxi /d,
pero la expresion generica anterior es valida para cualquier curva, es decir, el vector tangente v a
cualquier curva contenida en V se puede expresar como combinacion lineal de la base U (x)/xi .
Como consecuencia, dada la parametrizacion U (valida al menos en un entorno del punto conside-
rado), el espacio tangente a V en r esta dado por la envolvente lineal de la base

U (x)
ti = , i = 1, . . . , n (4.21)
xi
Como puede verse, esta base esta dada por los vectores tangentes a las lneas coordenadas U (xi ),
dadas por la interseccion de las hipersuperficies definidas por U (xj ) = const. j = i.
Es muy sencillo verificar que esta base define, efectivamente, un espacio vectorial. Para ello basta
comprobar que cualquier combinacion lineal de la base pertenece tambien al espacio tangente, es
decir, que existe una curva (continua, diferenciable y contenida en V) cuyo vector velocidad coincide
con dicha combinacion lineal. Por otra parte tambien existe el elemento nulo, el elemento opuesto,
y, en resumen, se puede comprobar facilmente que se verifican todas las propiedades mencionadas
en el primer captulo.

Cambios de coordenadas
Aunque es trivial verificar que la envolvente lineal de la base Ec. (4.21) cumple todas las
propiedades necesarias para ser un espacio vectorial, todava no es del todo evidente que un objeto
definido como v = v i ti sea, realmente, un vector. Esto no es del todo evidente ya que los ti se han
definido a partir de una parametrizacion concreta U que es totalmente arbitraria. Para convencernos
de que v i ti es, efectivamente, un vector, debemos verificar que este objeto es invariante sea cual
sea el sistema de coordenadas generalizadas empleado para describir la variedad.
Consideremos entonces una parametrizacion arbitraria V , tal que a cada r V le asigna las
n coordenadas generalizadas y i (es decir, r = U (x) = V (y)). De manera analoga a como hemos
definido la base Ec. (4.21), los vectores tangentes a las lneas coordenadas de este nuevo sistema
definen la base nueva
V (y)
ti = , i = 1, . . . , n (4.22)
y i
Por definicion, este cambio de coordenadas es invertible, es decir, existen n funciones suaves que
relacionan las coordenadas nuevas con las viejas y viceversa

xi = xi (y 1 , . . . , y n ), y i = y i (x1 , . . . , xn ), i = 1, . . . , n (4.23)

al menos en la interseccion de los dominios de definicion de ambos mapas.


4.2. FIBRADOS TANGENTE Y COTANGENTE 99

Teniendo esto en cuenta y aplicando la regla de la cadena encontramos


V (y) xj
ti = = Cij tj , i = 1, . . . , n (4.24)
xj y i
donde hemos definido la matriz C del cambio de base como la matriz jacobiana del cambio de
coordenadas, evaluada en el punto considerado

x1 x1
. . .
xi y1 y n
i
Cj = , C = ... ... ... (4.25)
y j
xn n
y 1
. . . x
y n

Vemos por tanto que los vectores base Ec. (4.21), dados por las tangentes a las lneas coordenadas,
se comportan como objetos 1-covariante bajo el cambio de base inducido en el espacio tangente
como consecuencia de realizar un cambio de coordenadas en la variedad.
Para terminar de convencernos de que los elementos del espacio tangente son realmente vectores,
debemos comprobar que, dada la curva parametrica arbitraria r() V, la velocidad de esta
curva es realmente un vector, es decir, un objeto independiente de las coordenadas generalizadas
empleadas para describir la variedad. Veamos que efectivamente es as. En la parametrizacion U el
vector velocidad de esta curva (v) es
dr() dxi
v= = ti = v i ti (4.26)
d d
y por tanto tiene componentes v i = dxi /d. En la parametrizacion V el vector velocidad es
dr() dy i
v= = ti = v i ti (4.27)
d d
Identificando ambos resultados vemos que las coordenadas de v respecto de la base vieja (v i ) y
respecto de la base nueva (v i ) estan relacionados por
v i = Dji v j (4.28)
donde la matriz D es la matriz jacobiana de la transformacion inversa
1
y y 1
. . . x
y i x 1 n

i 1
Dj = , D = C = ... ... ... (4.29)
xj
y n y n
x1
. . . x n

Este mismo resultado (Ec. (4.28)) puede obtenerse directamente aplicando la regla de la cadena
dy i y i xj
v i = = = Dji v j (4.30)
d xj d
Por tanto vemos que las componentes dxi /d de la velocidad de cualquier curva parametrica se
comportan bajo un cambio de coordenadas como un objeto 1-contravariante, tal y como corresponde
a las componentes de un vector.
Con esto queda comprobado que el espacio tangente a una variedad diferenciable tiene estructura
de espacio vectorial. Como corolario tambien resulta evidente que la dimensionalidad del espacio
tangente coincide con el numero de coordenadas generalizadas necesarias para describir la variedad,
es decir, con la dimensionalidad de la variedad.
100 CAPITULO 4. CAMPOS TENSORIALES

Metrica del espacio tangente


Dados dos vectores del espacio tangente u = ui ti y v = v i ti , su producto escalar esta dado por

u v = gij ui v j (4.31)

donde el tensor metrico gij se define como la tabla de productos escalares de los vectores de la base

gij = ti tj , i, j = 1, . . . , n (4.32)
El tensor metrico nos permite medir distancias a lo largo de la variedad. Por ejemplo, dada la curva
parametrica r() la longitud al cuadrado (dr)2 recorrida en el intervalo de tiempo d es

(dr)2 = gij v i v j (d)2 . (4.33)

A partir de las leyes de transformacion de los vectores ti es inmediato verificar que las com-
ponentes del tensor metrico se transforman bajo un cambio de base como un objeto 2-covariante

gij = Cip Cjq gpq (4.34)


En este curso solo consideraremos variedades diferenciables con metrica Riemanniana en el
fibrado tangente (con mucha frecuencia Eucldea, como caso particular de Riemanniana), por tanto
suponemos que gij es simetrico e invertible y que vara de forma suave a lo largo del fibrado tangente.
Una vez definida la metrica del espacio tangente quedan definidas las correspondientes relaciones
entre el espacio tangente y su dual, en particular la base del fibrado co-tangente esta dada por los
vectores
ti = g ij tj , i = 1, . . . , n (4.35)
donde las componentes 2-contravariantes g ij forman el tensor metrico inverso. Esto permite aplicar
en los fibrados tangente y cotangente las relaciones estudiadas en los captulos precedentes sobre
tensores y densidades tensoriales de cualquier rango tensorial. En particular quedan extendidas a
los fibrados tangente y contangente las operaciones de subida y bajada de ndices, mediante el
correspondiente producto de contraccion con el tensor metrico o su dual.

Base natural y componentes holonomas


Dada una variedad diferenciable n-dimensional V, parametrizada en un entorno determinado
{ }n
por medio de un difeomorfismo cualquiera U en terminos de las coordenadas generalizadas xi i=1 ,
el conjunto de vectores tangentes a las lneas coordenadas

r
ti = , i = 1, . . . , n (4.36)
xi
se define como la base natural del fibrado tangente a V.
Para cualquier vector v del espacio tangente, las componentes de v respecto de la base natu-
ral correspondiente a cualquier sistema de coordenadas generalizadas se denominan componentes
holonomas. La base dual a la base Ec. (4.36), dada por ti = g ij tj , es la base natural del fibrado
cotangente, y en general, se denominan componentes holonomas a las componentes de cualquier
tensor afn relativas a la base definida como cualquier potencia tensorial de la base natural y su
dual.
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 101

{ }n
Como las coordenadas generalizadas xi i=1 varan de forma suave (es decir, C ) a medida que
recorremos la variedad, tambien lo hacen sus vectores tangentes, de modo que la base natural vara
de forma suave a medida que recorremos el fibrado tangente. Desde el punto de vista tensorial la
base natural tiene muchas ventajas, paro hay ocasiones en que es preferible emplear otras bases
distintas, como veremos mas adelante.
Por el contrario, se denominan componentes no holonomas a las componentes de los vectores
del espacio tangente respecto de cualquier base distinta de la base natural. Esta definicion se hace
extensiva a las componentes de cualquier campo tensorial definido sobre la variedad relativas a
cualquier base distinta de la correspondiente potencia tensorial de la base natural y su dual. Un
ejemplo de componentes no holonomas de gran interes en fsica son las llamadas componentes
fsicas, dadas por las componentes respecto a la base natural normalizada, tal y como veremos
posteriormente.

4.3. El espacio vectorial Rn en coordenadas curvilneas


Como aplicacion directa de los resultados anteriores vamos a estudiar el espacio vectorial Rn
en un sistema arbitrario de coordenadas. Finalmente aplicaremos estos resultados al caso habitual
del espacio R3 Eucldeo en coordenadas cartesianas, cilndricas y esfericas.
Consideremos el espacio vectorial Rn con metrica de Riemann dada por Gij = ei ej , siendo
ei los vectores de la base cartesiana (o canonica). El espacio tangente a esta variedad en un punto
arbitrario es una copia del espacio de partida (con la misma metrica) con centro en dicho punto.
Sea x un punto perteneciente a Rn , descrito por sus componentes xi = {x1 , . . . , xn } respecto de
la base cartesiana habitual. En general, un sistema de coordenadas curvilneas (y j = {y 1 , . . . , y n })
es una coleccion de n funciones suaves
( )
y 1 = y 1 x1 , . . . , xn
... ... ...
( 1 )
y = y x , . . . , xn
n n
(4.37)

invertibles
( )
x1 = x1 y 1 , . . . , y n
... ... ...
( 1 )
x = x y , . . . , yn
n n
(4.38)

de tal manera que la posicion de cualquier punto del espacio vectorial queda unvocamente definida
tanto por xi como por y i . La condicion que garantiza que podamos invertir el cambio de coordenadas
es que el jacobiano de la transformacion

x1 x1
. . . yn
xi y1
i
Jj = , J = ... ... ... (4.39)
y j
xn n
y 1
. . . x
y n

sea invertible, lo cual queda garantizado si el determinante de J es distinto de cero en todo el


dominio de definicion de las coordenadas generalizadas y i .
102 CAPITULO 4. CAMPOS TENSORIALES

Normalmente las coordenadas y i seran funciones complicadas (no lineales) de las xi y el jaco-
biano no sera constante, sino que sera una funcion del punto. Por tanto el cambio de coordenadas
definido por Ec. (4.37) y Ec. (4.38) es una operacion mas complicada que un simple cambio de
base en el espacio. En particular, las coordenadas generalizadas y i ni siquiera tendran (en general)
las mismas dimensiones que las xi . Por ejemplo, al pasar a coordenadas cilndricas o esfericas en
R3 la coordenada radial tiene las mismas dimensiones que las coordenadas cartesianas de partida,
pero las coordenadas angulares no, ya que son adimensionales. Mas adelante volveremos sobre esta
cuestion, que motiva la definicion de las componentes fsicas.

4.3.1. Base natural y metrica del espacio tangente


La base cartesiana habitual es la base natural de las coordenadas cartesianas
x
ei = (4.40)
xi

La base natural del sistema de coordenadas generalizadas y i esta dada por

x
ti = = Jij ej (4.41)
y i

donde la matriz jacobiana esta dada por Ec. (4.39), tal y como puede comprobarse aplicando la
regla de la cadena para calcular x/y i en terminos de x/xj .
El tensor metrico en terminos de la base nueva esta dado por

gij = ti tj = Jip Jjq Gpq (4.42)

Para verificar que gij define una metrica de Riemann es necesario comprobar que es simetrico,
invertible, y que vara de forma suave a medida que recorremos el fibrado tangente. Lo cual es
inmediato suponiendo que Gij cumple todas las propiedades necesarias para definir una metrica
Riemanniana y que J es invertible y suave.

Caso de Rn Eucldeo
En el caso mas habitual la metrica de Rn sera Eucldea Gij = ij (al menos en alguna base).
En ese caso el tensor metrico del espacio tangente en la base natural definida por el sistema de
coordenadas y j es

n
gij = Jik Jjk (4.43)
k=1

que matricialmente puede ponerse como [g] = [J]T [J].


Incluso si el espacio de partida es Eucldeo vemos que, dependiendo del sistema de coordenadas
empleado, el tensor metrico del espacio tangente en terminos de la base natural puede no ser la
identidad. En general, en un espacio Eucldeo el tensor metrico solo es la identidad si empleamos
una base ortonormal, pero no lo sera en caso contrario. Esto no significa que el espacio deje de
ser Eucldeo, una metrica es no Eucldea solamente en el caso en que no exista ninguna base tal
que en ella el tensor metrico sea la identidad. En el caso de Rn Eucldeo el espacio tangente es,
obviamente, Eucldeo.
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 103

Coordenadas ortogonales
En general se denominan sistemas de coordenadas ortogonales a aquellos en que las lneas
coordenadas son mutuamente perpendiculares, de forma que el tensor metrico en el espacio tangente
es diagonal: {
0 si i = j
gij = ti tj = (4.44)
h2i si i = j
donde los factores de escala hi estan dados por la norma de los correspondientes vectores tangentes
a las lneas coordenadas
hi = (ti ti )1/2 = ti (4.45)
que en general no seran unitarios (hi = 1). En el caso de un espacio Eucldeo descrito en terminos
de un sistema de coordenadas ortogonales los factores de escala estan dados por
n ( )2
2 xk
(hi ) = (4.46)
y i
k=1

En general el uso de coordenadas curvilneas ortogonales simplifica enormemente las expresiones.


Por ejemplo, el tensor metrico inverso en coordenadas ortogonales esta sencillamente dado por
g ij = (hi )2 ij (sin suma en i).

4.3.2. Componentes fsicas


Un movil en el espacio Rn , descrito por las coordenadas cartesianas habituales xi , esta dado
por la curva parametrica con componentes xi (t). El vector velocidad de esta partcula puntual es
un vector del espacio tangente dado por
dxi
v= ei (4.47)
dt
Cual es la expresion del vector velocidad en coordenadas generalizadas?

Segun hemos visto previamente, en terminos de la base natural correspondiente a las coorde-
nadas y i , este vector se expresa sencillamente como
dy i
v= ti (4.48)
dt
Desde el punto de vista tensorial el vector Ec. (4.48) esta perfectamente bien definido, pero
desde el punto de vista fsico puede ser poco conveniente. Supongamos que las coordenadas xi
tienen dimensiones de longitud, de tal forma que las componentes de v en la base cartesiana tienen
dimensiones de longitud/tiempo. Parece razonable pensar que las componentes de un vector velo-
cidad siempre deben tener dimensiones de velocidad, sin embargo, esto no tiene porque cumplirse
con las componentes dy i /dt. De hecho es inmediato comprobar que dy i /dt solo tendra dimensiones
de velocidad si la correspondiente coordenada generalizada y i tiene dimensiones de longitud, lo
cual no tiene por que cumplirse, y de hecho no se cumple en numerosos sistemas de coordenadas
empleados habitualmente (como las variables angulares de las coordenadas cilndricas y esfericas).
El problema esta en la definicion de la base natural. En principio en fsica parece preferible
que los vectores de la base sean adimensionales, de forma que las dimensiones del tensor en consi-
deracion recaigan sobre sus componentes, tal y como sucede cuando se emplea la base cartesiana.
104 CAPITULO 4. CAMPOS TENSORIALES

Sin embargo, la base natural de un sistema de coordenadas generalizadas no es adimensional, sino


que el vector ti = r/y i tiene dimensiones de [r]/[y i ], y por tanto solo sera adimensional si la
coordenada generalizada y i tiene las mismas dimensiones que r.
Este problema suele resolverse empleando la base natural normalizada correspondiente a las
coordenadas y i , definida por

r
y i 1
ti =
r = hi ti , i = 1, . . . , n (4.49)

y i

(sin suma en i). Por construccion esta claro que cada uno de estos vectores es unitario, y por tanto
tambien adimensional. Las componentes de vectores y tensores respecto de esta base se denominan
componentes fsicas, y se caracterizan por tener las mismas dimensiones que el objeto tensorial
que representan. Las leyes de transformacion de tensores en componentes fsicas son algo mas
complicadas que en componentes holonomas, ya que incluyen contracciones con el tensor metrico
y con su inversa. Por este motivo es usual usar las coordenadas respecto de la base natural para
todo lo que son transformaciones de coordenadas y emplear las componentes fsicas, calculadas en
funcion de las anteriores, solo cuando ya no se van a realizar mas cambios de coordenadas.
Las componentes fsicas son las que se usan en la practica en todos los casos en que la metrica en
el espacio tangente sea Eucldea. En particular, si la metrica es Eucldea y se emplean coordenadas
ortogonales, la base natural normalizada tiene la gran ventaja de ser una base ortonormal (cosa
que en general no sucede con la base natural), lo cual simplifica enormemente todas las expresiones.
Esto hace que las componentes fsicas sean las empleadas en las aplicaciones del calculo tensorial
en ingeniera. De hecho, las componentes fsicas son las que se emplean cuando se suministran
expresiones para el calculo de divergencias, gradientes, etc. en sistemas de coordenadas curvilneas
ortogonales, como cilndricas o esfericas.

Vector velocidad en componentes fsicas


A partir de Ec. (4.49) es muy sencillo comprobar que la relacion entre la base cartesiana de
partida (vectores ei , coordenadas xi ) y la base formada por los vectores tangentes unitarios (que
en lo sucesivo denotaremos por ti ) esta dada por

1 xi
tj = ei , sin suma en j
hj y j
y i
ej = hi ti , con suma en i (4.50)
xj

Como puede verse la matriz del cambio de base en este caso esta dada por [J][h1 ], donde [J] es la
matriz jacobiana y [h1 ] es una matriz diagonal cuyos elementos son los los inversos de los factores
de escala.
Consecuentemente las componentes fsicas de un vector del espacio tangente estan dadas por

y j y j i
u = ui ei = ui hj tj = uj tj ; uj = hj u, sin suma en j (4.51)
xi xi
tal y como corresponde a un comportamiento 1-contravariante.
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 105

i i
La base dual a {ti }ni=1 esta dada por los vectores {t }ni=1 que cumplen (t , tj ) = ji . Puede
comprobarse facilmente que esta base esta dada por
y i j
i
t = hi
e , sin suma en i (4.52)
xj
Consecuentemente las componentes fsicas de un vector del espacio cotangente estan dadas por

1 xi j j 1 xi
u = ui ei = ui t = u j t ; u j = ui , sin suma en j (4.53)
hj y j hj y j
tal y como corresponde a una una ley tensorial 1-covariante.

Producto escalar y tensor metrico en componentes fsicas


Dados dos vectores u y v del espacio tangente, su producto escalar estara dado por
u v = Gij ui v j = gij ui v j (4.54)
donde el tensor metrico en componentes fsicas esta dado por la ley 2-covariante
1 xk 1 xl
gij = ti tj = Gkl , sin suma en ij (4.55)
hi y i hj y j
Analogamente, el producto escalar en terminos de las coordenadas covariantes esta dado por
u v = Gij ui vj = g ij ui vj (4.56)
donde g ij esta dado por la ley de transformacion 2-contravariante
i j y i y j kl
g ij = t t = hi hj G , sin suma en ij (4.57)
xk xl
y por supuesto se verifica que g ik gkj = ji . Tambien se puede comprobar que el tensor metrico
relaciona las componentes co- y contra-variantes en esta nueva base
ui = gij uj , ui = g ij uj (4.58)
y los vectores de la base con los de su dual
j i
ti = gij t , t = g ij tj (4.59)

Componentes fsicas en espacios Eucldeos


Las componentes fsicas se emplean, como regla general, siempre que estemos trabajando en
espacios Eucldeos. El motivo es que si el espacio vectorial de partida es Eucldeo (Gij = ij ,
Gij = ij ) y empleamos un sistema de coordenadas ortogonales, entonces el tensor metrico en la
base de los vectores tangentes unitarios vuelve a ser, logicamente, la identidad (gij = ij , g ij = ij ) lo
que simplifica enormemente el calculo. Para comprobarlo basta recordar la definicion de los factores
de escala hi (Ec. (4.45)). Como consecuencia las componentes fsicas co- y contra-variantes respecto
de un sistema de coordenadas ortogonales en un espacio Eucldeo coinciden, y por este motivo es
muy frecuente no hacer disticion alguna entre unas y otras. Esto es lo que sucede generalmente
cuando se suministran tablas con expresiones para los operadores diferenciales habituales (gradiente,
divergencia, rotacional, . . . ) en coordenadas cilndricas o esfericas (o en cualquier otro sistema
de coordenadas curvilneas ortogonales). Siempre que se suministran estas expresiones sin hacer
referencia al caracter co- o contra-variante de las componentes empleadas se sobre-entiende que
estamos manejando componentes fsicas en un espacio Eucldeo.
106 CAPITULO 4. CAMPOS TENSORIALES

4.3.3. El espacio Eucldeo R3 en coordenadas cilndricas


En el resumen de resultados generales presentado en esta seccion y en la siguiente emplearemos
la notacion () para todas las magnitudes referidas a la base natural y () para la base natural
normalizada.
z
uz
r u
ur
r

y

x
Figura 4.10: Coordenadas cilndricas.

Las coordenadas cilndricas estan definidas por el cambio de variable


y1 = r = x2 + y 2 x1 = x = r cos
y
y2 = = arctan x
x2 = y = r sen
y3 = z x3 = z

Matriz jacobiana

cos() (r sin()) 0


Ji j = sin() r cos() 0

0 0 1

Vectores tangentes

( )
sin()
cos() (r sin()) 0 cos() 0
r
1 2 3
t1 = sin() , t2 = r cos() , t3 = 0 , t = sin() , t = cos()
, t = 0
r
0 0 1 0 0 1

Vectores tangentes unitarios


cos() sin() 0 cos() sin() 0

1 2 3
t1 = sin() , t2 = cos() , t3 = 0 , t = sin() , t = cos() , t = 0

0 0 1 0 0 1

Tensor metrico
1 0 0 1 0 0


gij = 0 r2 0 , g ij = 0 r2 0

0 0 1 0 0 1
4.3. EL ESPACIO VECTORIAL RN EN COORDENADAS CURVILINEAS 107

ur
u
r
r u
y
x

Figura 4.11: Coordenadas esfericas.

4.3.4. El espacio Eucldeo R3 en coordenadas esfericas


Las coordenadas esfericas estan definidas por el cambio de variable

y1 = r = x2 + y 2 + z 2 x1 = x = r sen cos

x2 +y 2
y 2 = = arctan z
x2 = y = r sen sen
y
y3 = = arctan x
x3 = z = r cos

Matriz jacobiana
cos() sin() r cos() cos() (r sin() sin())


Ji j = sin() sin() r cos() sin() r cos() sin()

cos() (r sin()) 0
Vectores tangentes

cos() sin() r cos() cos() (r sin() sin())


t1 = sin() sin() , t2 = r cos() sin() , t3 = r cos() sin()

cos() (r sin()) 0
( )
cos() cos() csc() sin()
cos() sin()
r r
1 2 3
t = sin() sin() , t = cos()rsin() , t = cos() csc()
( ) r
sin()
cos() r 0

Vectores tangentes unitarios



cos() sin() cos() cos() sin()


t1 = sin() sin() , t2 = cos() sin() , t3 = cos()

cos() sin() 0

cos() sin() cos() cos() sin()

1 2 3
t = sin() sin() , t = cos() sin() , t = cos()

cos() sin() 0

Tensor metrico
1 0 0 1 0 0


gij = 0 r2 0 , g ij = 0 r2 0
2

csc()
0 0 r2 sin()2 0 0 r2
108 CAPITULO 4. CAMPOS TENSORIALES

4.4. Problemas
P.4.1. Dado el sistema Ec. (4.1), demostrar
{ n+1 } que la condicion necesaria
{ 1 paran }poder despejar las
coordenadas x ,...,x n+r como funcion de las restantes x , . . . , x en un entorno del
punto x0 es que la matriz Ec. (4.4) sea invertible en un entorno de dicho punto.

P.4.2. Demostrar que un vector v cualquiera, con origen en un punto r V, pertenece al espacio
tangente a la variedad V en el punto r si y solo si v es el vector velocidad de alguna curva
(s) contenida en V que pase por r.

P.4.3. Demostrar que el tensor metrico gij definido por Ec. (4.42) define una metrica de Riemann
en el fibrado tangente al espacio vectorial Rn con metrica de Riemann dada por Gij .

P.4.4. Demostrar que la metrica gij definida por Ec. (4.42) es esencialmente identica a Gij .

P.4.5. Dado el vector v = v i ti del espacio tangente a Rn , calcular las componentes co-variantes
de este vector suponiendo que la base natural ti corresponde a un sistema de coordenadas
curvilneas ortogonales.

P.4.6. Calcular las componentes del tensor 2-covariante asociado al tensor 2-contravariante T ij res-
pecto de la base natural correspondiente a un sistema de coordenadas ortogonales.

P.4.7. Verificar las relaciones Ec. (4.51) y Ec. (4.53) relativas a componentes fsicas de vectores.

P.4.8. Verificar las relaciones Ec. (4.55) y Ec. (4.57) relativas a las componentes fsicas del tensor
metrico.

P.4.9. Verificar que el tensor metrico de un espacio Eucldeo en componentes fsicas es la identidad.

P.4.10. Verificar las relaciones referentes al espacio Eucldeo R3 en coordenadas cilndricas y esfericas
mencionadas al final del captulo.

4.4.1. Soluciones a problemas seleccionados (Tema 4)


P.4.1. Partimos del conjunto de ecuaciones implcitas dado en la Ec. (4.1), que recordamos definen
una variedad n-dimensional { 1en un espacio }vectorial de n + r dimensiones, y lo linealizamos
alrededor del punto x0 = x0 , x0 , . . . , xn+r
2
0 . Para ello realizamos la expansion de Taylor de
cada funcion en torno al punto x0 hasta orden 1:

f1 (x) f1 (x) f1 (x)
f1 (x0 ) + 1
x + x2 + + xn+r = 0
x1 x=x0 x2 x=x0 xn+r x=x0

f2 (x) f2 (x) f2 (x)
f2 (x0 ) + 1
x + x2 + + xn+r = 0
x1 x=x0 x2 x=x0 xn+r x=x0
... ... ... ... ...

fr (x) fr (x) fr (x)
fr (x0 ) + x1 + x2 + + xn+r = 0
x 1
x=x0 x2 x=x0 xn+r x=x0
4.4. PROBLEMAS 109

Como el punto x0 pertenece a la variedad debe satisfacer las ecuaciones { Ec. (4.1), de modo }
que fi (x0 ) = 0, i = 1, . . . , r. Ahora podemos despejar los terminos con xn+1 , . . . , xn+r :
( )
f1 (x) f 1 (x)
f 1 (x)
f 1 (x)

xn+1 + + xn+r = x1 + + xn
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0
( )
f2 (x) f 2 (x)
f 2 (x)
f 2 (x)

xn+1 + + xn+r = x1 + + xn
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0
... ... ... ... ...
( )
fr (x) fr (x) fr (x) fr (x)
xn+1
+ + x n+r
= x + +
1
x n
xn+1 x=x0 xn+r x=x0 x1 x=x0 xn x=x0

y obtenemos un sistema lineal de ecuaciones que puede expresarse en forma matricial del
siguiente modo:
Ay = y 0
con el vector columna y para la incognitas, e y 0 para los terminos independientes:

n f1 (x)
xn+1 i=1 x1 x 1
x=x0

y = ... , y0 = ... ,


n fr (x)
x n+r i=1 x1 x 1
x= x0
y donde la matriz A de los coeficientes es, precisamente, la matriz Ec. (4.4) evaluada en el
punto en cuestion. Este sistema lineal tiene solucion cuando la matriz A es invertible:

y = A1 y 0 ,
{ n+1 }
y esa solucion corresponde
{ 1 al conjunto} x , . . . , xn+r de coordenadas expresadas como
funcion de las restantes x , . . . , xn , es decir:
( )
xn+1 = g1 x1 , . . . , xn
( )
xn+2 = g2 x1 , . . . , xn
... ... ...
n+r
( 1 )
x = gr x , . . . , xn

P.4.2. Para verificar que se cumple la doble implicacion indicada consideramos primero un vector v
perteneciente al espacio tangente en el punto r. Como v pertenece al espacio tangente pode-
mos escribirlo en terminos de sus componentes contravariantes v = v i ti . Consideremos ahora
la curva parametrica (s) dada por los puntos U (xi + v i s) siendo U el difeomorfismo existente
entre la variadad considerada y las coordenadas generalizadas empleadas para describirla, xi
las coordenadas generalizadas del punto r, s un parametro cualquiera y v i las componentes
contravariantes del vector v de partida. Es evidente que para s = 0 esta curva pasa por el
punto con coordenadas generalizadas xi , es decir, por r. Por otra parte, derivando respecto
del parametro s y teniendo en cuenta las relaciones Ec. (4.20 & 4.21) vemos que el vector
110 CAPITULO 4. CAMPOS TENSORIALES

velocidad de esta curva en s = 0 es v, con esto hemos visto que dado un vector del espacio
tangente hemos podido encontrar una curva parametrica tal que su velocidad coincide con el
vector dado.
Para verificar la implicacion inversa basta con recordar las relaciones Ec. (4.20 & 4.21), las
cuales implican que el vector velocidad de cualquier curva parametrica en un punto dado es
expresable como combinacion lineal de la base del espacio tangente en el punto considerado,
y por tanto pertenece a dicho espacio.

4.5. Bibliografa
Para escribir este captulo se ha consultado [1], [2], [5], [7] y [11].
Captulo 5

Derivacion de campos tensoriales

En este captulo veremos los conceptos de transporte paralelo y derivada covariante. Esto nos
permitira generalizar las operaciones basadas en derivacion direccional habituales en calculo al caso
de campos tensoriales definidos sobre variedades diferenciables.

5.1. Transporte paralelo


Una vez hemos definido los campos tensoriales sobre variedades diferenciables aparece la cues-
tion de su analisis. En particular nos encontramos con la siguiente cuestion: dado un campo vectorial
definido sobre una variedad

podemos comparar el valor del campo en un punto A con el valor en otro punto B?

La relevancia de esta cuestion es obvia. Por ejemplo, el campo al que nos referimos podra
representar un campo de fuerzas, o de velocidades, de modo que nos preguntamos si la fuerza a la
que estan sometidos dos puntos distintos sobre la variedad es la misma, o si las velocidades a las
que se desplazan dos partculas puntuales sobre una variedad son iguales o no, y en caso de no serlo
nos preguntamos en cuanto difieren, es decir, cual es el vector diferencia. Tambien es evidente que
esta misma cuestion que estamos analizando para el caso de un campo vectorial se da de manera
analoga para un campo tensorial de cualquier rango.
A primera vista la pregunta anterior puede parecer trivial, pero no lo es. La dificultad esta en
que el valor del campo en el punto A es un vector del espacio tangente a la variedad en el punto A,
mientras que el correspondiente valor en el punto B pertenece al espacio tangente en B, es decir,
los dos vectores que queremos comparar pertenecen a espacios vectoriales distintos:

podemos comparar dos vectores que no pertenecen al mismo espacio vectorial?

Esta claro que la pregunta de si dos vectores son o no iguales solo esta bien planteada cuando
ambos vectores pertenecen al mismo espacio vectorial, con lo que podra parecer que la pregunta
que hacamos mas arriba no tiene respuesta. Sin embargo, si la variedad en consideracion es el
espacio Eucldeo Rn descrito en terminos de la base cartesiana la operacion de comparar un v(A)
con un v(B) es trivial: basta con trasladar el vector v(A) sin modificarlo desde A hasta B, hecho
esto podemos compararlos (en particular calcular su diferencia) sin ninguna dificultad.

Podemos generalizar esta operacion al caso de una variedad diferenciable cualquiera?

111
112 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

La respuesta a esta pregunta esta condicionada por la presencia de curvatura en la variedad. Para
entender esta cuestion es necesario estudiar con algo mas de profundidad lo que se esta haciendo
cuando trasladamos el origen de un vector a lo largo de una variedad. Los espacios tangentes a
una variedad en dos puntos distintos son espacios vectoriales distintos, pero estan conectados por el
hecho de ser ambos tangentes a la misma variedad diferenciable. Dada una variedad diferenciable
y un sistema de coordenadas generalizadas (y i ), el espacio tangente en un punto r puede definirse
como la envolvente lineal de los vectores tangentes a las lneas coordenadas en ese punto (es decir,
la envolvente lineal de la base natural en ese punto). Si ahora consideramos un desplazamiento
infinitesimal en torno a r tenemos que la base natural ti habra variado de forma infinitesimal para
convertirse en ti + dti , si el desplazamiento es infinitesimal esta variacion puede describirse en
terminos de la base natural en r por medio de
( )
ti j k ti
dti = j dy = t , j tk dy j (5.1)
y y

donde las derivadas se evaluan en el punto r de partida. Como consecuencia de esto los espacios
tangentes en r y r + dr no son independientes, sino que estan conectados por ser ambos tangentes
a la misma variedad diferenciable. Esta conexion es lo que permite trasladar vectores a lo largo
del fibrado tangente. En el caso de Rn Eucldeo en terminos de la base cartesiana la operacion
de trasladar vectores es trivial debido a que el tensor metrico y la base del espacio tangente son
constantes a lo largo de toda la variedad, de modo que para trasladar vectores sin modificarlos
basta con desplazar su origen sin modificar los valores de sus componentes.
La operacion de desplazar un vector (o un campo tensorial de cualquier orden) a lo largo de
una variedad, de manera paralela a s mismo y a la variedad, se denomina transporte paralelo. Esta
operacion implica que el vector que trasladamos se desplaza a lo largo de la variedad segun una
determinada curva parametrica:

de manera paralela a la variedad, es decir, sin salirse del fibrado tangente,

de manera paralela a s mismo

y sin modificar su norma.

El transporte paralelo se generaliza al caso de campos tensoriales de cualquier orden. La idea


en todos los casos es la misma, se trata de desplazar un tensor desde el punto A al punto B de
forma paralela a la variedad, sin modificarlo (mas bien modificandolo lo menos posible), a lo largo
de una curva determinada que una dichos puntos. Antes de entrar en los detalles tecnicos sobre
como se hace, esta claro que esto estara condicionado por el rango tensorial de la magnitud que
queremos transportar, por las propiedades de la variedad diferenciable sobre la que vamos a hacer
el transporte (en particular por su curvatura), por el sistema de coordenadas empleado (ya que
este determina la base natural del fibrado tangente) y por la curva parametrica a lo largo de la que
realizamos el transporte. En este sentido hay dos casos en los que el transporte paralelo es trivial,
el transporte paralelo de escalares y el de tensores de cualquier orden en Rn Eucldeo en terminos
de la base cartesiana:

Es evidente que el transporte paralelo de escalares es trivial. Dado un campo escalar f definido
sobre una variedad diferenciable, los valores de este campo en dos puntos (f (A) y f (B))
pueden compararse directamente, es decir, el transporte paralelo de la magnitud del campo
en A (f (A)) a cualquier otro punto de la variedad esta dado por f (A).
5.1. TRANSPORTE PARALELO 113

En el caso de Rn Eucldeo en terminos de la base cartesiana el transporte paralelo de tensores


de cualquier orden es trivial, dado que en este caso la base del espacio tangente no vara al
desplazarnos a lo largo de la variedad, de forma que para transportar de manera paralela
cualquier tensor basta con desplazar su origen sin modificar los valores de las componentes
(Fig. 5.1 izda.).

En cualquier otro caso el transporte paralelo es una operacion no trivial en la que entra en juego el
rango tensorial de la magnitud transportada y la curvatura de la variedad. La presencia de curvatura
en una variedad tiene consecuencias importantes en el transporte paralelo, ya que al realizarse
este de manera paralela a la variedad, si la variedad tiene curvatura se introduce inevitablemente
una cierta rotacion en el tensor, dependiente del camino considerado, a medida que se realiza el
transporte. Por tanto la presencia de curvatura hace que el transporte paralelo dependa del camino.
Esto se pone de manifiesto de manera explcita si consideramos la variedad desde el punto de vista
extrnseco, como se muestra p. ej. en la figura 5.1 (dcha.) para el transporte de un vector sobre una
superficie esferica (al final de este apartado volveremos sobre esta cuestion).

Figura 5.1: Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y
en una esfera.

5.1.1. Smbolos de Christoel

Si nos desplazamos de manera continua y diferenciable a lo largo de una variedad diferencible


observamos que la base natural va variando tambien de manera continua y diferenciable, lo cual
define una conexion entre los espacios tangentes a la variedad en distintos puntos, es decir, en todo
el fibrado tangente. Esta conexion en el fibrado tangente induce la correspondiente conexion en
el fibrado co-tangente y por tanto tambien en el espacio producto tensorial de cualquier potencia
tensorial del primero por cualquier potencia tensorial del segundo. Esta conexion se denomina
conexion de Levi-Civita y esta definida localmente por las derivadas de los vectores de la base
natural respecto de cada una de las lneas coordenadas.
114 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

Conexion de Levi-Civita
Si describimos la variedad por medio de un determinado sistema de coordenadas (definido al
menos localmente en un cierto entorno), la conexion de Levi-Civita queda descrita en dicho sistema
de coordenadas por medio de un conjunto de coeficientes, llamado coeficientes de la conexion, dados
por las derivadas direccionales de los vectores de la base natural del espacio tangente en terminos
de esa misma base, es decir, por las componentes que aparecan en la ec. (5.1). Estos coeficientes
se denominan smbolos de Christoel de segunda especie, con frecuencia simplemente smbolos de
Christoel, y se denotan habitualmente por kij

ti ti
kij = tk = g k t j (5.2)
y j y
{ }
k
(a veces se emplea la notacion i j ). Normalmente las componentes que aparecen contradas con
g k
al final de la expresion anterior se definen como smbolos de Christoel de primera especie, y se
denotan como ij (a veces se emplea la notacion [ij, ])

ti
ij = [ij, ] = t (5.3)
y j

de modo que los smbolos de Christoel de segunda especie estan dados por
{ }
k k
ij = = g k ij (5.4)
i j
{ }
Las notaciones i k j y [ij, ] se emplean a veces para recalcar que estos coeficientes no se transfor-
man bajo cambios de base como las componentes de un tensor, tal y como veremos mas adelante.
Los smbolos de Christoel estan totalmente determinados por las derivadas parciales del tensor
metrico respecto de las coordenadas generalizadas empleadas. Para convencernos de esto observa-
mos en primer lugar que como consecuencia de la propia definicion de la base natural (ec. (4.36))
se cumple
ti tj 2r
= = (5.5)
y j y i y i y j
y por tanto los smbolos de Christoel de primera y segunda especie cumplen las reglas de simetra

kij = kji , ijk = jik (5.6)


por este motivo se dice que la conexion de Levi-Civita es simetrica.
Para calcular los smbolos de Christoel en terminos de las derivadas del tensor metrico obser-
vamos que
gij ti tj
gij,
=
tj + ti (5.7)
y y y
donde hemos introducido la notacion ,i para denotar la derivada parcial respecto de la coordenada
generalizada y i . En lo sucesivo emplearemos esta notacion constantemente. Permutando de manera
cclica los ndices ij en la anterior expresion es inmediato comprobar que

1
ij = (gi,j + gj,i gij, ) (5.8)
2
5.1. TRANSPORTE PARALELO 115

Como consecuencia los smbolos de Christoel de segunda especie pueden calcularse por medio de
1
kij = g k (gi,j + gj,i gij, ) (5.9)
2
en terminos (exclusivamente) del tensor metrico y sus primeras derivadas respecto de cada coor-
denada. Por tanto los smbolos de Christoel son una propiedad intrnseca de la variedad, ya que
pueden calcularse sin hacer referencia a nada externo a la propia variedad en consideracion. Esto
hace que el transporte paralelo y la derivada covariante, ambos definidos a partir de la conexion de
Levi-Civita, sean tambien propiedades intrnsecas de la variedad.
La propiedad mas importante que define los smbolos de Christoel de segunda especie es que
expresan como varan los vectores de la base, en terminos de esa misma base, al desplazarnos por
la variedad. Re-escribiendo la ec. (5.2) esto queda como
ti
= kij tk (5.10)
y j
que expresa la conexion del fibrado tangente.
Estos mismos coeficientes determinan tambien la conexion del fibrado co-tangente. Para verlo
basta con derivar respecto de la coordenada y j la expresion

tk ti = ik (5.11)

que es constante a lo largo del fibrado tangente, de donde se deduce inmediatamente

tk
= kij ti (5.12)
y j
que expresa como vara la base dual, en terminos de la propia base dual, al desplazarnos por la
variedad.
Los smbolos de Christoel describen por tanto la conexion en los fibrados tangente y co-tangente
de manera local, es decir, en un cierto entorno alrededor de cada punto de la variedad.

Ley de transformacion de los smbolos de Christoel


{ }
Tal y como ya hemos mencionado la notacion [ij, k] y i k j se usa a veces para resaltar el
caracter no tensorial de los smbolos de Christoel. De hecho, si pasamos a un nuevo sistema de
coordenadas curvilneas y j se puede ver que los smbolos de Christoel en las nuevas coordenadas
estan dados por la ley de transformacion

y p y q y n r 2 y p y n
nlm = + (5.13)
y l y m y r pq y l y m y p
Esta ley sera una ley de transformacion tensorial 2-covariante 1-contravariante de no ser por el
termino afn que aparece en el segundo sumando de ec. (5.11). Como puede verse este termino
aparecera siempre que la transformacion de coordenadas y i = y i (y j ) sea no lineal, siendo nulo solo
en el caso de una transformacion de coordenadas lineal. Por tanto los smbolos de Christoel no
son las componentes de un tensor.
El caracter no tensorial de los smbolos de Christoel esta relacionado con el caracter no tensorial
de la derivacion parcial respecto de la coordenadas generalizadas, tal y como veremos al final de
este captulo.
116 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

Smbolos de Christoel en coordenadas curvilneas ortogonales


Si empleamos un sistema de coordenadas curvilneas ortogonales los unicos elementos no nulos
del tensor metrico son los de la diagonal, dados por gii = h2i , en ese caso los smbolos de Christoel
estan dados por

1 h2i



+ , si k = i

2 y j

ijk = 1 h2j (5.14)
+ , si k = j

2 y i



1 h2i

ij , si k = i y k = j
2 y k


1 hi

+ , si k = i

hi y j



1 hj
kij = + , si k = j (5.15)

hj y
i





h h
2i ki ij , si k = i y k = j
hk y
donde, logicamente, no hay suma ni en i ni en j.

5.1.2. Smbolos de Christoel en componentes fsicas


Siempre que se trabaja en espacios Eucldeos lo mas habitual es emplear las componentes
fsicas de vectores y tensores, dadas por las componentes respecto de la base natural normalizada.
La conexion de Levi-Civita descrita en terminos de la base natural normalizada esta dada por los
smbolos de Christoel en componentes fsicas, o simplemente smbolos de Christoel fsicos. A
partir de la definicion de la base natural normalizada es facil deducir las relaciones

1 ti
= kij tk (5.16)
hj y j

i
1 t k
= ikj t (5.17)
hj y j
donde los smbolos de Christoel fsicos estan dados por
( )
hk k ln hi
k
ij = ij i
k
(5.18)
hi hj y j

donde no hay suma en ningun ndice. La expresion anterior puede calcularse en terminos del tensor
metrico como
gkk gi
ij = kij ik ij
k
(5.19)
gii gjj gii gjj
donde solo se aplica el convenio de suma de Einstein al ndice , no hay suma respecto de los demas
ndices.
5.1. TRANSPORTE PARALELO 117

Observacion: Es importante darse cuenta de que los Christoel fsicos no son simetricos bajo
intercambio de sub-ndices i j, es decir
kij = kji , pero en general kij = kji (5.20)

Por otra parte, derivando respecto de la coordenada generalizada y j en ti ti = 1 (sin suma en i),
que se cumple por definicion de base natural normalizada, encontramos que los Christoel fsicos
cumplen la propiedad
gik k
= 0, sin suma en i (5.21)
hk ij
donde solo se aplica el convenio de suma de Einstein al ndice k.

Smbolos de Christoel fsicos en coordenadas curvilneas ortogonales


En el caso particular de un sistema de coordenadas curvilneas ortogonales los smbolos de
Christoel fsicos estan dados por





0, si k = i
k
ij = (5.22)

hk k

si k = i
ij ,
hi hj
que por medio de (5.15) se puede poner como
( )
1 jk hk ij hj
k
ij = (5.23)
hj hi y i hk y k

5.1.3. Transporte paralelo de vectores y tensores


La conexion de Levi-Civita que acabamos de definir nos permite realizar el transporte paralelo
de vectores y tensores a lo largo del fibrado tangente. Supongamos el vector v perteneciente al
espacio tangente en el punto A y la curva parametrica () que une dos puntos A y B de la
variedad (supondremos que (0) = A y (1) = B). Para realizar el transporte paralelo de v desde
A hasta B a lo largo de la curva () tenemos que calcular la funcion v(), tal que a cada valor
de le asigna el vector (del fibrado tangente) resultado del transporte paralelo de v desde A hasta
el correspondiente punto (). La condicion que define el transporte paralelo segun la curva ()
es que la magnitud transportada se desplaza segun dicha curva sin modificarse, es decir, para el
transporte paralelo del vector v esto se traduce en la condicion
dv()
=0 (5.24)
d
Por medio de la regla de la cadena esta condicion puede ponerse como
v j
V =0 (5.25)
y j
donde hemos definido V j como la componente j del vector velocidad de la curva respecto de la
base natural correspondiente al sistema de coordenadas generalizadas y i . Expresando el vector en
componentes respecto de dicha base (v = v i ti ) la anterior condicion queda como
[ i ]
v k i j
+ v kj ti V = 0 (5.26)
y j
118 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

que expresa la condicion de no variacion del vector v a lo largo de la curva . Esta condicion se
cumple de manera independiente de la curva considerada, al menos localmente, siempre que se
cumpla
v,ji + v k ikj = 0 (5.27)
por tanto esta condicion define, al menos localmente, como varan las componentes del vector
v = v i ti al transportarlo de manera paralela en un entorno del punto A.
Si en lugar del desarrollo en terminos de la base del espacio tangente expresamos v por medio
de las componentes co-variantes v = vi ti el resultado equivalente a la anterior ec. (5.27) es

vi,j vk kij = 0 (5.28)

Las condiciones anteriores permiten realizar el transporte paralelo en un entorno infinitesimal


alrededor del punto A. Integrando la relacion ec. (5.27) a lo largo de una curva () que una los
puntos A y B podemos (al menos en principio) calcular el transporte paralelo de cualquier vector
v desde A hasta B. En este sentido es importante observar que al integrar ec. (5.27) a lo largo
de una curva con longitud finita, el resultado del transporte paralelo solo sera independiente del
camino empleado si la variedad considerada es plana, pero para variedades dotadas de curvatura
el resultado dependera, en general, de la curva () considerada (ver mas abajo).
El transporte paralelo en el espacio Eucldeo Rn , descrito en terminos de la base canonica,
proporciona un ejemplo interesante especialmente sencillo. En ese caso la base del espacio tangente
es constante, todos los Christoel son nulos, y la condicion que define el transporte paralelo se reduce
a v,ji = 0, es decir, se traslada el origen del vector v sin modificar los valores de sus componentes,
tal y como mencionabamos al inicio del captulo. En este caso particular vemos tambien que el
transporte paralelo entre dos puntos no depende del camino, lo cual es consecuencia de que el
espacio Eucldeo Rn es plano.
En el caso general la base del espacio tangente no es constante a lo largo de la variedad, sino
que vara de manera suave, estando esta variacion descrita por los smbolos de Christoel. En
ese caso la regla para realizar el transporte paralelo de un vector ya no puede ser constancia de
las componentes, ya que al variar la base de un punto a otro, los valores de las componentes del
vector deben variar de manera que se compense la variacion de la base, de tal forma que el resultado
neto del transporte paralelo sea transportar el vector sin modificarlo a lo largo del camino ()
considerado.
La condicion que define el transporte paralelo de un tensor de rango arbitrario se define de
manera analoga a como hemos hecho para el caso, mas intuitivo, de un vector. En el caso de un
tensor r-covariante s-contravariante

T = Tji11 ji22 ...


... is
jr ti1 ti2 . . . tis t t . . . t
j1 j2 jr
(5.29)

imponiendo la condicion
dT ()
=0 (5.30)
d
para cualquier curva () que una los puntos A y B, al menos localmente, deducimos que la
condicion que define el transporte paralelo de este tensor es


s
r
Tji11ji22...j
...is
r ,k
+ Tji11ji22...j
...pm ...is im
r
pm k Tji11ji22...q
...is
qn = 0
n ...jr jn k
(5.31)
m=1 n=1
5.1. TRANSPORTE PARALELO 119

tal y como puede deducirse facilmente siguiendo los mismos pasos que nos han llevado a las re-
laciones ec. (5.27) y ec. (5.28). Como puede verse, cada componente contravariante introduce un
termino adicional dado por la derivada de cada ti y cada componente covariante introduce a su
vez un termino adicional dado por la derivada de cada ti . Por otra parte, por medio de ec. (5.16)
y ec. (5.17) podemos obtener las relaciones, totalmente equivalentes a las anteriores, que definen el
transporte paralelo en terminos de las componentes fsicas.
Como caso particular, si el tensor T es un escalar (0 componentes covariantes y 0 componentes
contravariantes) la relacion anterior se reduce de manera trivial a T,k = 0, independientemente de la
variedad y del sistema de coordenadas empleado, tal y como mencionabamos al inicio del captulo
para el transporte paralelo de escalares. Esto significa que el transporte paralelo del producto escalar
u v es igual al producto escalar de estos dos vectores en el punto de partida.

5.1.4. Curvatura
Estrictamente hablando las anteriores relaciones (ec. (5.27), ec. (5.28), o en general ec. (5.30))
permiten realizar el transporte paralelo de un tensor cualquiera solamente de manera local, es decir,
desde un punto A hasta un punto infinitamente proximo A+dA. Para realizar el transporte paralelo
desde A hasta un punto B, que diste de A una cierta distancia finita, sera necesario integrar la
ecuacion diferencial ordinaria ec. (5.30) a lo largo de alguna curva () que una los dos puntos
de interes. En este caso nos preguntamos si el resultado del transporte paralelo depende o no de
la curva () empleada para calcularlo, en particular si realizamos el transporte paralelo en un
circuito cerrado:

recuperamos el tensor de partida?

En general el transporte paralelo solo es independiente del camino en variedades diferenciables


planas, y en ese caso esta claro que el transporte paralelo de un tensor en cualquier circuito cerrado
es igual al tensor de partida. En el caso de variedades dotadas de curvatura el transporte paralelo
de A a B depende del camino empleado para unir A con B (ver fig. 5.1), y en ese caso se dice
que la conexion del espacio tangente no es integrable. El motivo es que el transporte paralelo se
realiza de manera paralela a la variedad, por tanto, si la variedad esta curvada al transportar un
tensor se introduce inevitablemente cierta rotacion en el tensor. Dado que la rotacion introducida
por el transporte paralelo depende del camino () considerado, el resultado del transporte en
un circuito cerrado puede no reproducir el tensor de partida, sino el tensor de partida rotado un
cierto angulo, dependiente del circuito cerrado recorrido (ver p. ej. fig. 5.1 dcha. para el caso de un
vector transportado de manera paralela en una esfera). Por tanto, en general el transporte paralelo
depende del camino. De todas formas, el transporte paralelo a lo largo de una curva dada siempre
esta bien definido, y la posibilidad de que el resultado no dependa de la curva considerada, sino
solo de los extremos, depende de la presencia de curvatura en la variedad.
Volviendo a la cuestion con la que abramos este captulo, sobre la posibilidad de comparar
vectores del fibrado tangente con origen en puntos distintos de una variedad, vemos que, en general,
la nocion de paralelismo de vectores depende del camino escogido para unir los dos puntos en
consideracion. Solamente en el caso de una variedad plana podemos determinar si dos vectores del
fibrado tangente son o no parelelos independientemente del camino que tomemos para unir sus
orgenes. Por otra parte, las normas de estos vectores (o en general cualquier escalar) s pueden
compararse de manera independiente del camino, sea cual sea la variedad.
120 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

Tensor de curvatura de Riemann


Veamos con algo mas de detalle cual es la variacion que experimenta un vector contravariante v i
al transportarlo de manera paralela en un circuito cerrado infinitesimal. Para ello transportamos en
primer lugar el vector v i desde el punto r hasta el punto r , resultado de incrementar la coordenada
y p en una cantidad infinitesimal dy p . El vector resultado de este desplazamiento infinitesimal tiene
componentes
v i + v,p
i
dy p = v i v k ikp dy p (5.32)
donde los coeficientes de la conexion ikp estan evaluados en el punto r, y donde no hay suma
en el ndice p. A continuacion trasladamos este vector de forma paralela segun la coordenada y q ,
obteniendo como resultado el vector
( ) ( )( )

v i v k ikp dy p + v i v k ikp dy p dy q = v i v k ikp dy p v v k kp dy p iq dy q (5.33)
,q
( )
donde no hay suma ni en p ni en q. En la anterior expresion hemos denotado por iq el coeficiente
de la conexion iq evaluado en el punto r , por medio de un desarrollo en serie este coeficiente
esta dado por ( i )
q = iq + iq,p dy p (5.34)
donde no hay suma en p. Por tanto, despreciando terminos de orden superior a 2 en dy j , el vector
resultado de los desplazamientos sucesivos segun dy p seguido de dy q esta dado por
( )
v i v k ikp dy p v k ikq dy q v k ikq,p iq kp dy p dy q (5.35)

donde no hay suma ni en p ni en q. Intercambiando p con q en la expresion anterior encontramos


el resultado correspondiente a realizar estos desplazamientos en orden inverso
( )
v i v k ikp dy p v k ikq dy q v k ikp,q ip kq dy p dy q (5.36)

La diferencia entre estos 2 resultados es igual a la variacion que experimenta el vector v i al

dy p
dy q
dy q

dy p

Figura 5.2: Transporte paralelo a lo largo del circuito dy q , dy p , dy q , dy p en una variedad


con curvatura.

transportarse de manera paralela a lo largo del circuito cerrado definido por los desplazamientos
sucesivos segun dy q , dy p , dy q , dy p . El resultado puede escribirse como
v i (dy q , dy p ) v i (dy p , dy q ) = Rkpq
i
v k dy p dy q (5.37)
5.2. DERIVADA COVARIANTE 121

i
donde se define el tensor de curvatura de Riemann Rkpq como

i
Rkpq = p ikq q ikp + ip kq iq kp (5.38)

de forma que el transporte paralelo de un vector en un circuito cerrado infinitesimal deja invariante
al vector solo si el tensor de curvatura de Riemann es nulo. De manera analoga a como hemos hecho
para el caso de un vector, se puede calcular como vara un tensor de rango arbitrario al recorrer
un circuito cerrado infinitesimal, y puede verse facilmente que el resultado analogo a la ec. (5.38)
para el caso de un tensor de rango arbitrario tambien puede escribirse en terminos del tensor de
curvatura de Riemann.
El tensor Rkpqi describe de manera local la curvatura de una variedad de Riemann con conexion
k
dada por ij y es uno de los objetos centrales de estudio en geometra diferencial. Este objeto
tambien se aplica a variedades pseudo-Riemannianas, siendo uno de los ingredientes basicos de la
teora general de la relatividad de Einstein.

5.2. Derivada covariante


La derivada covariante es la generalizacion de la derivada parcial habitual al caso de cam-
pos tensoriales definidos sobre variedades diferenciables, descritas en terminos de un sistema de
coordenadas generalizadas. Si aplicamos la definicion de derivada

df f (x + h) f (x)
= lm
dx h0 h
a una magnitud tensorial definida sobre una variedad diferenciable, vemos que esto implica com-
parar magnitudes pertenecientes a los espacios tangentes en dos puntos distintos: x + h y x. Por
tanto para calcular una derivada direccional sobre una variedad necesitamos transportar de manera
paralela la magnitud f (x) al punto x + h, para lo cual debemos tener en cuenta como vara la base
del espacio tangente, tal y como hemos hecho en el apartado anterior.

En este curso emplearemos la siguiente notacion:


f
f,i i f derivada parcial de f respecto de la coordenada generalizada y i .
y i
f;i ;i f derivada covariante de f respecto de la coordenada generalizada y i .

Conviene tener presente que en muchos textos se emplea la notacion f,i directamente para
la derivada covariante (en ese caso no se define ninguna notacion especial para la derivada
parcial). Otra notacion habitual en la literatura para la derivada covariante es f|i , o f/i , sobre
todo en textos antiguos.

Para las derivadas de orden superior emplearemos la notacion siguiente:


2f
f,ij =
y i y j
f;ij = (f;i );j
( )
f;i1 i2 ...in = . . . (f;i1 );i2 . . .
;in
122 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

La derivada covariante se define como la operacion de derivada direccional que tiene en cuenta
las variaciones de la base del espacio tangente. Por ejemplo, tomando la derivada respecto de la
coordenada curvilnea y j del vector a = ai ti encontramos
( i )
a ai i ti a i k
a;j = = j ti + a = + kj a ti (5.39)
y j y y j y j

Por tanto, la derivada covariante del vector de componentes contravariantes ai se define como

ai;j = ai,j + ikj ak (5.40)

y tal y como comprobaremos mas adelante ai;j es un tensor 1-covariante 1-contravariante.


Analogamente, la derivada covariante del vector de componentes covariantes ai se define como
( )
a ai i ti ai
a;j = = t + ai j = ij ak ti
k
(5.41)
y j y j y y j
por tanto definimos
ai;j = ai,j kij ak (5.42)
y puede comprobarse que ai,j es un tensor 2-covariante.
Aplicando esta operacion en el caso general de un tensor r-covariante s-contravariante

T = Tji11 ji22 ...


... is
jr ti1 ti2 . . . tis t t . . . t
j1 j2 jr
(5.43)

su derivada covariante respecto de la coordenada y k esta dada

T ;k = Tji11ji22...j
...is
t ti2 . . . tis tj1 tj2 . . . tjr
r ;k i1
(5.44)

cuyas componentes estan dadas por



s
r
Tji11ji22...j
...is
r ;k
= Tji11ji22...j
...is
r ,k
+ Tji11ji22...j
...pm ...is im
r
pm k Tji11ji22...q
...is
qn
n ...jr jn k
(5.45)
m=1 n=1

De esta forma la condicion de constancia del tensor T a lo largo de una curva parametrica ()
con velocidad V j tj , dada por ec. (5.30), se reduce a

dTji11ji22...j
...is
r
= Tji11ji22...j
...is
r ;k
Vk =0 (5.46)
d
Por tanto dada una curva parametrica, el producto de contraccion de la derivada covariante con el
vector velocidad de la curva proporciona la derivada del tensor a lo largo de la curva, denominada
con frecuencia derivada absoluta a lo largo de la curva.

Propiedades de la derivada covariante


La derivada covariante es la generalizacion al caso de coordenadas curvilneas de la derivada
parcial en coordenadas cartesianas, tiene el mismo significado y las mismas propiedades, entre ellas
resumimos las siguientes:
La derivada covariante conserva el caracter tensorial aumentando en 1 el orden covariante del
tensor.
5.2. DERIVADA COVARIANTE 123

La derivada covariante de un tensor constante es nula.


La derivada covariante en el espacio Eucldeo Rn en coordenadas cartesianas se reduce a la
derivada parcial habitual.
La derivada covariante cumple las propiedades algebraicas habituales de una operacion de
derivacion, en particular es una operacion lineal
(A + B);i = A;i + B ;i (5.47)
y cumple la regla de Leibnitz para la derivacion de productos
(A B);i = A;i B + A B ;i (5.48)

La variacion de T a lo largo de un desplazamiento infinitesimal dy i esta dada por dT = T ;i dy i .


La derivada covariante del tensor metrico es nula
ij
gij;k = 0, g;k =0 (5.49)

Como consecuencia de esto la operacion de derivada covariante conmuta con las operaciones
de subida y bajada de ndices.

Aplicacion al caso de escalares, vectores y tensores de orden 2


Los casos de mayor interes en fsica corresponden a los tensores de orden bajo habituales. Como
puede verse, la derivada covariante de una funcion escalar coincide con la derivada parcial habitual

f;i = f,i (5.50)


En el caso de un vector contravariante vi, su derivada covariante esta dada por
v;ji = v,ji + ikj v k (5.51)
y para un vector covariante vi encontramos
vi;j = vi,j kij vk (5.52)
Para la derivada covariante de un operador lineal (tensor 1-covariante 1-contravariante) encon-
tramos
Aji;k = Aji,k + jpk Api qik Ajq (5.53)
El resultado para tensores 2-contravariante o 2-covariante esta dado por
Aij ij i pj j
;k = A,k + pk A + pk A
ip
(5.54)
Aij;k = Aij,k pik Apj pjk Aip (5.55)
respectivamente. Como puede verse, cada ndice covariante o contravariante de un tensor introduce
un termino afn en la derivada covariante, dado por la contraccion de ese ndice con el smbolo de
Christoel correspondiente, + para los ndices contravariantes y para los ndices covariantes.
La ecuacion general (5.45) puede parecer complicada, sin embargo para deducirla basta tener
en cuenta las ecuaciones (5.51) y (5.52) para el caso de tensores de orden 1. Para calcular la
derivada covariante respecto de y j de un tensor de rango arbitrario lo unico que hay que hacer es
calcular la derivada parcial correspondiente y anadir un termino analogo a ikj v k por cada ndice
i contravariante y un termino analogo a kij vk por cada ndice i covariante. Las relaciones
anteriores para el caso de tensores de orden 2 (ecs. (5.53-5.55)) proporcionan un ejemplo.
124 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

5.2.1. Comportamiento tensorial de la derivada covariante


La derivada covariante es una operacion bien definida desde el punto de vista tensorial. Esto
significa que, dado un tensor de rango arbitrario T , el objeto dado por T ;k tk (con suma en k) es
un tensor, es decir, un objeto geometrico independiente del sistema de referencia empleado para
calcularlo. Concretamente, el tensor T ;k tk esta dado por

T ;k tk = Tji11ji22...j
...is
t ti2 . . . tis tj1 tj2 . . . tjr tk
r ;k i1
(5.56)

y se define como el gradiente del tensor T (a veces se dice gradiente covariante), de esta manera
generalizamos el concepto de gradiente, familiar para el caso de escalares, al caso de tensores
de rango arbitrario. En los primeros captulos de este curso hemos estudiado el significado del
concepto de tensor, y hemos visto que la invariancia de un tensor bajo cambios de base implica
que sus componentes se transforman de una determinada forma al realizar un cambio de base en el
espacio. En el caso de la derivada covariante esto implica que si T es un tensor de orden r-covariante
s-contravariante, las componentes de su derivada covariante (Tji11ji22...j
...is
r ;k
) se transforman segun una
ley tensorial tipo r + 1-covariante s-contravariante bajo reparametrizaciones de la variedad. Por
tanto, la derivada covariante incrementa en una unidad el orden covariante del objeto sobre el que
se aplica. En particular, las componentes de la derivada covariante de una funcion escalar forman
un vector, las componentes de la derivada covariante de orden 2 de un escalar definen un tensor
de orden 2, de igual manera que la derivada covariante de un vector tambien define un tensor de
orden 2.
Es evidente que una ley fsica, para ser valida, debe ser independiente del sistema de coordenadas
empleado para formularla. Por tanto, el caracter invariante de la derivada covariante bajo cambios
de coordenadas hace que esta sea la operacion de derivacion direccional adecuada para formular
leyes fsicas que involucren variaciones espaciales de campos tensoriales.

Derivada covariante de escalares


En el caso de un escalar (f ) la derivada covariante coincide con la derivada parcial habitual.
Como consecuencia de esto el objeto dado por

f,i ti (5.57)

es invariante bajo cambios de coordenadas, lo que implica que f,i son las componentes de un vector
covariante, que se define como el vector gradiente del escalar f . Dado que la demostracion de estas
cuestiones no es demasiado complicada, la dejamos para los ejercicios.
Sin embargo las segundas derivadas parciales de f no definen un tensor, es decir, el objeto
definido por f,ij ti tj no esta bien definido desde el punto de vista tensorial ya que depende del
sistema de coordenadas empleado. Esto se debe a que para calcular las segundas derivadas del
escalar f , es decir, las derivadas de orden 1 del vector gradiente, debemos tener en cuenta tambien
como vara la base natural del espacio co-tangente. Si tenemos esto en cuenta es facil verificar que
el objeto dado por las segundas derivadas covariantes del escalar f

f;ij ti tj (5.58)

s es invariante bajo reparametrizaciones de la variedad, por tanto las componentes f;ij corresponden
a un tensor 2-covariante.
5.2. DERIVADA COVARIANTE 125

Derivada covariante de vectores


En este apartado verificaremos paso a paso la ley de transformacion de la derivada covariante
de vectores. Para ello recordamos en primer lugar la ley de transformacion (no tensorial) de los
coeficientes de la conexion de Levi-Civita bajo la reparametrizacion y i y i , dada por

y p y q y n r 2 y p y n
nm = m r
pq + m p (5.59)
y y y y y y
y s y n y s
Multiplicando por la matriz inversa de y n /y p (es decir, teniendo en cuenta que y n y p = y p =
ps ) y despejando deducimos

2ys n y
s y p y q s
= (5.60)
y y m m
y n y y m pq
relacion que emplearemos mas abajo.
Veamos primero el caso de un vector covariante Ti . Por definicion las componentes de este vector
se transforman segun
y k
Ti = Tk (5.61)
y i
Derivando esta relacion respecto de la coordenada y j (nos referimos a la derivada parcial ordinaria)
y aplicando la regla de la cadena encontramos

Ti 2yk y k Tk
j
= i j
Tk + (5.62)
y y y y i y j

La derivada parcial de la componente antigua Tk respecto de las coordenadas nuevas y j puede


calcularse por medio de la regla de la cadena como
Tk Tk y q
= (5.63)
y j y q y j

Teniedo esto en cuenta y sustituyendo la derivada segunda de y k por medio de ec. (5.60) llegamos
a ( k p q
)
Ti n y k y y y k y q Tk
= ij pq T k + (5.64)
y j y n y i y j y i y j y q
de donde despejamos ( )
Ti Tp y p y q
nij Tn = npq Tn (5.65)
y j y q y i y j
es decir
y p y q
Ti;j = Tp;q (5.66)
y i y j
Por tanto las componentes Ti;j se transforman bajo un cambio de sistema de coordenadas como un
objeto tensorial 2-covariante, es decir, la derivada covariante de un vector covariante es un tensor
2-covariante.
Veamos ahora el caso de un vector contravariante, para ello partimos de la ley de transformacion

y i k y i k
T i = T , Ti = T (5.67)
y k y k
126 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

Derivando respecto de la coordenada y j y operando como hemos hecho en el caso anterior llegamos
a ( )
T i y k n y
i
i y y
p q y i T k
= jk pq T k
+ (5.68)
y k y j y n y j y k y k y j
i
Multiplicando por la matriz inversa de yyk (dada por yy i ), reordenando y renombrando los ndices
encontramos ( p ) i q
T i i k T p k y y
+ kj T = + kq T (5.69)
y j y q y p y j
es decir
y i y q
T;ji = T;qp (5.70)
y p y j
tal y como corresponde a un objeto 1-covariante 1-contravariante. Para tensores de rango tensorial
superior se pueden deducir relaciones analogas.

5.2.2. Derivada covariante en componentes fsicas


En aplicaciones de calculo tensorial en espacios Eucldeos es frecuente trabajar con tensores em-
pleando las componentes fsicas, por los motivos expuestos en el captulo precedente. La derivada
covariante del tensor de rango arbitrario T esta dada por el tensor T ;k tk (con suma en k), expre-
sando este objeto por medio de sus coordenadas respecto de la base natural normalizada vemos
que las componentes fsicas de la derivada covariante estan dadas por

1 i1 i2 ...is
s
i1 i2 ...pm ...is im

r
Tji11ji22...j
...is
r ;k
= Tj1 j2 ...jr ,k + Tj1 j2 ...jr pm k Tji11ji22...q
...is
qn
n ...jr jn k
(5.71)
hk
m=1 n=1

(sin suma en k) donde las componentes fsicas de la conexion se han estudiado antes en este captulo.

5.3. Vector aceleracion


Como aplicacion directa de la derivada absoluta a lo largo de una curva veamos la expresion
del vector aceleracion de una partcula puntual en coordenadas generalizadas. Supongamos un
movil cuya posicion esta contenida en una cierta variedad diferenciable n-dimensional descrita por
las coordenadas generalizadas y i . La posicion{ de este movil esta descrita
} por la curva parametrica
r(), dada en coordenadas por las funciones y 1 (), y 2 (), . . . , y n () , donde el parametro juega el
papel de tiempo. En el captulo precedente vimos que el vector velocidad de este movil esta dado
por v = y i ti , donde y i representa la derivada respecto del parametro y los ti forman la base
natural correspondiente a este sistema de coordenadas. El vector aceleracion esta dado por la
derivada respecto al tiempo del vector velocidad, estando esta derivada evaluada a lo largo de la
trayectoria del movil. Denotando como a el vector aceleracion tenemos que

dv
a= = v ;j v j (5.72)
d
para calcular esta expresion aplicamos la regla de la cadena

dv dti ti
= y i ti + y i = y i ti + j y i y j (5.73)
d d y
5.4. PROBLEMAS 127

Expresando la variacion de los vectores de la base por medio de los smbolos de Christoel este
resultado puede escribirse como ( )
a = y k + kij y i y j tk (5.74)

donde y i denota la segunda derivada respecto de . En consecuencia vemos que las componentes
del vector aceleracion a = ak tk estan dadas por

ak = y k + kij y i y j = v k + kij v i v j (5.75)

y la expresion en coordenadas generalizadas de la conocida ley de Newton F = ma es


( )
f k = m y k + kij y i y j (5.76)

Esta forma de expresar la ley de Newton es mas complicada que la habitual en coordenadas car-
tesianas, pero tiene la gran ventaja de ser valida independientemente del sistema de coordenadas
empleado, lo que hace posible la comparacion de resultados entre observadores que empleen sistemas
de coordenadas distintos.

5.4. Problemas
P.5.1. Verificar la relacion ec. (5.10).

P.5.2. Verificar la relacion ec. (5.11).

P.5.3. Verificar la relacion ec. (5.14).

P.5.4. Verificar la relacion ec. (5.12).

P.5.5. Verificar la relacion ec. (5.15).

P.5.6. Verificar la relacion ec. (5.17).

P.5.7. Verificar la relacion ec. (5.18).

P.5.8. Verificar la relacion ec. (5.19).

P.5.9. Verificar la relacion ec. (5.21).

P.5.10. Verificar la relacion ec. (5.22).

P.5.11. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas cartesianas.

P.5.12. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas cilndricas.

P.5.13. Calcular los smbolos de Christoel de primera y segunda especie y fsicos correspondientes
al espacio R3 Eucldeo en coordenadas esfericas.

P.5.14. Deducir la ley de transformacion del tensor de curvatura de Riemann bajo un cambio de
coordenadas.
128 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES

P.5.15. Dado el escalar f , demostrar que f;i ti define un objeto invariante bajo cambios de coordena-
das, es decir, un tensor.

P.5.16. Verificar la ley tensorial correspondiente para la derivada covariante de un vector covariante
y de uno contravariante.

P.5.17. Si sabemos que un campo vectorial v cumple v;ji = 0 que podemos afirmar sobre vi;j ?

P.5.18. Las derivadas parciales tradicionales de una funcion escalar conmutan f,ij = f,ji . Que puede
decirse en este sentido sobre las derivadas covariantes cruzadas? Se cumple la relacion f;ij =
f;ji ? Razone la respuesta.

P.5.19. Calcule la expresion del vector aceleracion en R3 Eucldeo en coordenadas cartesianas, cilndri-
cas y esfericas.

P.5.20. Exprese los resultados del ejercicio anterior en componentes fsicas.

5.4.1. Soluciones a problemas seleccionados (Tema 5)


P.5.4. Verificar la relacion ec. (5.12).
( )
En primer lugar partimos de la relacion tk ti = ik , derivando respecto de la coordenada
y j encontramos
tk ti
j
ti + j tk = 0
y y
Recordando que cualquier vector v puede expresarse como v = vi ti = (ti , v) ti , vemos que en
la relacion anterior el primer termino es precisamente la coordenada covariante i-esima del
desarrollo del vector tk /y j en terminos de la base dual ti . En cuanto al segundo termino
tenemos:
ti k
j
t = pij tp tk = kij
y
Sustituyendo y despejando llegamos a la relacion pedida

tk
= kij ti
y j

P.5.5P.5.7. En este ejercicio vamos a deducir la expresion de los smbolos de Christoel en componentes
fsicas: Ecs. (5.16)-(5.19) del texto.
Como sabemos, los smbolos de Christoel se definen por medio de
( )
ti k ti
k
= ij tk donde ij t , j
k
y j y

Por otro lado, la base natural normalizada del espacio tangente tiene la forma
ti
ti = , es decir ti = hi ti
hi
mientras que para el espacio dual del espacio tangente, o espacio cotangente, tendremos
i
t = g ij tj = hi hj g ij tj = hi ti
5.5. BIBLIOGRAFIA 129

ya que
1
gij = gij , g ij = hi hj g ij , sin suma en i, j
hi hj
Podemos reemplazar estas expresiones en la ecuacion inicial
( )
ti hi ti
= kij tk = hk kij tk
y j y j
y desarrollar
hi ti
j
ti + hi j = hk kij tk
y y
Despejando obtenemos
( ) ( )
ti hi k hi k ln hi
hi j = hk kij tk j ti = hk ij i j tk = hk ij hk i
k k
tk
y y y y j

Reordenando terminos llegamos a las expresiones Ec. (5.16) y Ec. (5.18)


( )
1 ti hk k ln hi
= ij i
k
tk = kij tk
hj y j hi hj y j

Para obtener la expresion de kij en funcion del tensor metrico (Ec. (5.19)) sustituimos los fac-
tores de escala por sus correspondientes componentes en el tensor metrico: hs = (ts , ts )1/2 =

gss , lo que da
( ) ( )
hk k ln hi gkk k 1 hi
k
ij tk = ij i
k
= ij i
k
hi hj y j gii gjj gii y j

Por ultimo, queda calcular la derivada direccional del factor de escala



hi gii 1 gii 1 ti 1 ( p ) 1
= = = t i = ij tp ti = pij gip
y j y j 2 gii y j gii y j gii gii

Sustituyendo este resultado en la ecuacion anterior y operando llegamos finalmente a la ex-


presion Ec. (5.19)
( ) ( )
hk k ln hi gkk k 1 p gkk gip
k
ij = ij i
k
j
= ij i
k
ij gip = kij ik pij
hi hj y gii gjj gii gii gjj gii gjj

5.5. Bibliografa
Para este captulo se ha consultado principalmente [1], [2], [7] , [8] y [13].
130 CAPITULO 5. DERIVACION DE CAMPOS TENSORIALES
Captulo 6

Operadores diferenciales habituales

En este captulo presentamos las versiones con comportamiento tensorial bien definido de los
operadores diferenciales habituales en fsica, basadas en la derivada covariante definida en el captulo
precedente. Los resultados se presentan de forma general para un caso arbitrario. En el caso de un
espacio Eucldeo se presentan tambien las expresiones correspondientes a un sistema de coordenadas
ortogonales. Al final del captulo aplicamos estos resultados para generar las expresiones de los
operadores diferenciales habituales en el caso del espacio Eucldeo R3 en coordenadas cartesianas,
cilndricas y esfericas. Aunque estos sistemas de coordenadas son, con diferencia, los que mas
se usan, el material presentado en este captulo permite deducir la expresion de los operadores
diferenciales habituales en cualquier sistema de coordenadas, no necesariamente ortogonales. De
esta forma, el material que presentamos aqu completa el objetivo de esta primera parte del curso.

6.1. Operadores diferenciales


La generalizacion a coordenadas curvilneas de los operadores diferenciales habituales se obtiene
a partir de su expresion en coordenadas cartesianas sustituyendo las derivadas parciales A/xi
por las correspondientes derivadas covariantes A;i .

6.1.1. Gradiente covariante


El gradiente de un escalar f es el vector definido, en funcion de sus componentes covariantes,
como
f i 1 f i
f = i
t = t (6.1)
y hi y i
En terminos de sus componentes contravariantes este vector queda como

f g ij f
f = g ij tj = tj (6.2)
y i hi y i

En el caso particular de un sistema de coordenadas curvilneas ortogonales (suponiendo que el


espacio es eucldeo) esto queda como

1 f 1 f
f = 2 i
ti = ti (6.3)
hi y hi y i

131
132 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES

En todas las expresiones anteriores se sobre-entiende que la base ti es la base natural del sistema
de coordenadas generalizadas empleado, mientras que la base ti es la base natural normalizada,
siendo los hi los factores de escala correspondientes.
Como puede verse las componentes covariantes y contravariantes del vector gradiente son, en
general, distintas, incluso si el espacio es eucldeo y la base es ortogonal. Las componentes co- y
contra-variantes solo coinciden si el espacio es eucldeo y si la base es ortonormal, tal y como sucede
con las componentes fsicas cuando se usa un sistema de coordenadas curvilneas ortogonales.
El gradiente de un vector v es un tensor de orden 2. A partir de las componentes contravariantes
de v este tensor esta definido por
( )
v k
v = v;jk tk tj = + ij v tk tj
k i
(6.4)
y j

En funcion de sus componentes fsicas este tensor queda como


( )
j 1 v k j
v = v;jk tk t = j
k i
+ ij v tk t (6.5)
hj y

6.1.2. Divergencia covariante


La divergencia covariante de un vector v se define como el escalar resultante de la contraccion
del tensor gradiente de v
1 ( i )
v = v;ii = gv (6.6)
g y i
donde para deducir la ultima expresion se ha tenido en cuenta la relacion

j 1 g 1 g
ij = = (6.7)
2g y i g y i

A partir de las componentes fsicas de v esto queda como


( )
1 g i
v = v (6.8)
g y i gii

En el caso particular de un sistema de coordenadas curvilneas ortogonales tenemos que



g = h1 h2 h3 (6.9)

y por tanto en ese caso ( )


1 h1 h2 h3 i
v = v (6.10)
h1 h2 h3 y i hi

6.1.3. Rotacional covariante


A partir de la definicion de producto vectorial en coordenadas curvilneas, el rotacional cova-
riante de un vector A se define como el vector dado por

1
A = ijk Ak;j ti = ijk Ak;j ti (6.11)
g
6.2. COORDENADAS CURVILINEAS ORTOGONALES HABITUALES 133

En componentes fsicas esto esta dado por

hi hj hk ijk
A= Ak;j ti (6.12)
g

En coordenadas curvilneas ortogonales esto se simplifica finalmente a




h1 t1 h2 t2 h3 t3

hi h A
k k 1
A= ijk ti = (6.13)
h1 h2 h3 y j h1 h2 h3 y1 y 2 y 3

h1 A1 h2 A2 h3 A3

donde la ultima expresion debe entenderse como una regla nemotecnica, no como una definicion.

6.1.4. Laplaciano covariante


El laplaciano covariante de un escalar f es el escalar definido como la divergencia del gradiente
( )
( ) ( ) 1 ij f
f= f
2 ;i
;i
ij
= g f;j ;i
= gg (6.14)
g y i y j
En coordenadas curvilneas ortogonales esto queda como
( )
1 h1 h2 h3 f
f=
2
(6.15)
h1 h2 h3 y i h2i y i

6.2. Coordenadas curvilneas ortogonales habituales


Tomando como punto de partida los resultados precedentes, deducir la expresion (en compo-
nentes fsicas por ejemplo) de cualquier operacion tensorial en cualquier sistema de coordenadas es
una tarea puramente mecanica, que puede programarse facilmente en cualquier entorno de calculo
simbolico, como p. ej. Mathematica.
A continuacion se presenta un resumen de formulas aplicable para las coordenadas curvilneas
ortogonales mas habituales en el espacio R3 Eucldeo. Todos los vectores y tensores que aparecen
a continuacion estan definidos por sus correspondientes componentes fsicas.

6.2.1. Coordenadas cartesianas


Los resultados de este apartado son triviales, pero se presentan tambien por completitud.
Matriz jacobiana

1 0 0


J i j = 0 1 0

0 0 1

Vectores tangentes

1 0 0 1 0 0


t1 = 0 , t 2 = 1 , t3 = 0 , t1 = 0 , t2 = 1 , t3 = 0

0 0 1 0 0 1
134 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES

z
k

j
i
r

x
Figura 6.1: Coordenadas cartesianas.

Vectores tangentes unitarios



1 0 0 1 0 0

1 2 3
t1 = 0 , t2 = 1 , t3 = 0 , t = 0 , t = 1 , t = 0

0 0 1 0 0 1

Tensor metrico
1 0 0 1 0 0


gij = 0 1 0 , g ij = 0 1 0

0 0 1 0 0 1

Smbolos de Christoel de primera especie



0 0 0 0 0 0 0 0 0


i1k = 0 0 0 , i2k = 0 0 0 , i3k = 0 0 0

0 0 0 0 0 0 0 0 0

Smbolos de Christoel de segunda especie



0 0 0 0 0 0 0 0 0


i k 1 = 0 0 0 , i k 2 = 0 0 0 , i k 3 = 0 0 0

0 0 0 0 0 0 0 0 0

Smbolos de Christoel fsicos



0 0 0 0 0 0 0 0 0


ki1 = 0 0 0 , ki2 = 0 0 0 , ki3 = 0 0 0

0 0 0 0 0 0 0 0 0

Gradiente
v1 v1 v1
( ) x y z
v2 v2
f = f f f , v = x v2

x y z y z
v3 v3 v3
x y z
6.2. COORDENADAS CURVILINEAS ORTOGONALES HABITUALES 135

Divergencia

(T ) + (T12 ) + (T13 )
x 11 y z

v = (v1 ) + (v2 ) + (v3 ) , T = x (T21 ) +
(T22 ) +
(T23 )
x y z y z

x
(T31 ) + y
(T32 ) + z
(T33 )

Rotacional ( )
v = v
z
2
+ v3
y
v1
z
v3
x
v
y
1
+ v2
x

Laplaciano ( ) ( ) ( )
f f f
2 f = + +
x x y y z z

6.2.2. Coordenadas cilndricas


z
uz
r u
ur
r

y

x
Figura 6.2: Coordenadas cilndricas.

Las coordenadas cilndricas estan definidas por el cambio de variable


y1 = r = x2 + y 2 x1 = x = r cos
y 2 = = arctan xy x2 = y = r sen
y3 = z x3 = z
Matriz jacobiana
cos() (r sin()) 0


Ji j = sin() r cos() 0

0 0 1

Vectores tangentes
( )
sin()
cos() (r sin()) 0 cos() 0
r

t1 = sin() , t2 = r cos() , t3 = 0 , t1 = sin() , t2 = cos()
, 3
t = 0
r
0 0 1 0 0 1

Vectores tangentes unitarios



cos() sin() 0 cos() sin() 0

1 2 3
t1 = sin() , t2 = cos() , t3 = 0 , t = sin() , t = cos() , t = 0

0 0 1 0 0 1
136 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES

Tensor metrico
1 0 0 1 0 0


gij = 0 r2 0 , g ij = 0 r2 0

0 0 1 0 0 1

Smbolos de Christoel de primera especie



0 0 0 0 r 0 0 0 0


i1k = 0 r 0 , i2k = r 0 0 , i3k = 0 0 0

0 0 0 0 0 0 0 0 0

Smbolos de Christoel de segunda especie



1
0 0 0 0 0 0 0 0
r

i k 1 = 0 r1 0 , i k 2 = r 0 0 , i k 3 = 0 0 0

0 0 0 0 0 0 0 0 0

Smbolos de Christoel fsicos



1
0 0 0 0 0 0 0 0
(1)
r

ki1 = 0 0 0 , ki2 = 0 0 , ki3 = 0 0 0
r
0 0 0 0 0 0 0 0 0

Gradiente v1

v1 v2 v1
r

z
( f )
r
v2
r

f = f f , v = v
r2
v1 v2
z

+
r r z
r
v3
r
v3 v3
r r z

Divergencia
(T ) (r T ) (r T )
T22
12
+ r 11
+ z 13

( r) r r r
(v2 ) (r v1 ) (r v3 ) T22 T21
v =
+ r
+ z
, T = +
(T21 ) + z (T23 ) + T12
+
r r r r

r
(r T )
r
(r T )
r

(T 32 ) 31 33
r
+ r r + z
r

Rotacional ( )
v3 v1
v = v 2
+ v1
v3 v2

+ v2
z r z r r r r

Laplaciano ( ) ( ) ( )
1 f

r

r
r f
r

z
r f
z
2 f = + +
r r r

6.2.3. Coordenadas esfericas


Las coordenadas esfericas estan definidas por el cambio de variable

y1 = r = x2 + y 2 + z 2 x1 = x = r sen cos

x2 +y 2
y2 = = arctan z x2 = y = r sen sen
y 3 = = arctan xy x3 = z = r cos
Matriz jacobiana
cos() sin() r cos() cos() (r sin() sin())


Ji j = sin() sin() r cos() sin() r cos() sin()

cos() (r sin()) 0
6.2. COORDENADAS CURVILINEAS ORTOGONALES HABITUALES 137

ur
u
r
r u
y
x

Figura 6.3: Coordenadas esfericas.

Vectores tangentes

cos() sin() r cos() cos() (r sin() sin())


t1 = sin() sin() , t2 = r cos() sin() , t3 = r cos() sin()

cos() (r sin()) 0
( )
cos() cos() csc() sin()
cos() sin()
r r

t1 = sin() sin() , t2 = cos()rsin() , t3 = cos() csc()
( ) r
sin()
cos() r 0

Vectores tangentes unitarios



cos() sin() cos() cos() sin()


t1 = sin() sin() , t2 = cos() sin() , t3 = cos()

cos() sin() 0

cos() sin() cos() cos() sin()

1 2 3
t = sin() sin() , t = cos() sin() , t = cos()

cos() sin() 0

Tensor metrico
1 0 0 1 0 0


gij = 0 r2 0 , g ij = 0 r2 0
2

csc()
0 0 r2 sin()2 0 0 r2

Smbolos de Christoel de primera especie



0 0 0 0 r 0 0 0 r sin()2


i1k = 0 r 0 , i2k = r 0 0 , i3k = 0 0 r2 cos() sin()
( ) ( )
0 0 r sin()2 0 0 r2 cos() sin() r sin()2 r2 cos() sin() 0

Smbolos de Christoel de segunda especie



1 1
0 0 0 0 0 0 0
r r

i k 1 = 0 1r k
0 , i 2 = r 0 0 , i k 3 = 0 0 cot()
( )
0 0 1
r
0 0 cot() r sin()2 (cos() sin()) 0
138 CAPITULO 6. OPERADORES DIFERENCIALES HABITUALES

Smbolos de Christoel fsicos



1 1
0 0 0 0 0 0 0
(1)
r r
cot()
ki1 = 0 0 0 , ki2 = 0 0 , ki3 = 0 0
r (1) ( ) r
cot()
0 0 0 0 0 0 r
r
0

Gradiente
v1
v1
v2 ( v3 ) v1
csc()
r

+ r
( ) r r r
f v2 ( ) v2
v =
f csc() csc()
f = f , v
r2
+ v1

v3 cot()
+
r r r r
v3
r r
v3
r
v3 v1 v2 cot()
csc()

r r r
+ r
+ r

Divergencia

( 2 )
r v1 sin() csc() (r v2 sin()) csc()
(r v3 ) csc()
v = r
+
+
r2 r2 r2
( ) (r T ) csc()
T22 T33

(r2 T11
sin()) csc() (r T
12 sin()) csc() 13
r +
r
r
+ r2
+ r2 r2

T = 21 sin()) csc()
(T (T23 ) csc() (r T
T T T33 cot() 22 sin()) csc()
r12 + r21
r
+ + +

r
(T
r
(r T )
r r

(T32 ) 33 csc()) r 31 T13 T31 T23 cot() T32 cot()
r
+ r
+ r
+ r + r + r
+ r

Rotacional ( )
v3 v2 v1 v1
csc() csc()
v =
+
v3 cot()

v 3
v3
+ v2

+ v2
r r r r r r r r r

Laplaciano ( ) ( ) ( )
f


csc() csc()
r
r2 sin() f
r
csc()

sin() f

csc()
f =
2
+ +
r2 r2 r2

6.3. Bibliografa
Para este captulo se han consultado los textos generales de calculo tensorial, geometra dife-
rencial y algebra [3, 5, 4, 8, 12, 13], as como [18].
Apendice A

Formulas de analisis vectorial

En este apartado presentamos una coleccion de formulas de uso frecuente, validas en el caso
habitual de R3 con metrica Eucldea. De las expresiones que incluimos a continuacion, las que estan
escritas como ecuaciones vectoriales sin ndices son validas en cualquier sistema de coordenadas;
por el contrario, las ecuaciones de este captulo en las que aparecen ndices, solo son validas en el
sistema de coordenadas cartesianas.

A.1. Notacion
La notacion empleada en este apartado es la habitual:
Las cantidades en negrita representan vectores o, en general, magnitudes tensoriales no
escalares (es decir, de rango tensorial superior a cero).
Si en algun momento es necesario distinguir entre las componentes covariantes y contravarian-
tes de un tensor (por ejemplo A), las componentes covariantes se denotaran por subndices
(Ai ) y las contravariantes por superndices (Ai ).
A menos que se diga lo contrario supondremos que se estan empleando coordenadas cartesia-
nas, de tal forma que Ai denota la iesima componente cartesiana del vector A: Ai = ei A.
Dado que la base dual a la base cartesiana {i, j, k} coincide con ella misma, las componentes
covariantes y contravariantes respecto de esta base coinciden.
Convenio de suma de Einstein: A menos que se diga lo contrario se sobreentiende que si
en una expresion aparece un ndice repetido la expresion representa la suma respecto de ese
ndice, que por tanto es un ndice mudo.
Delta de Kronecker:
1 si i=j
ij j
ij = = i = (A.1)
0 si i = j
Smbolo alternante de Levi-Civita:


+1 si ijk es una permutacion par de 123


ijk = 1 si ijk es una permutacion impar de 123 (A.2)



0 si hay algun ndice repetido

139
140 APENDICE A. FORMULAS DE ANALISIS VECTORIAL

A.2. Productos escalares y vectoriales

A B = Ai Bi (A.3)
A B = ijk Ai Bj ek (A.4)

Formulas utiles

A (B C) = B (C A) = C (A B) (A.5)

A (B C) = B (A C) C (A B) (A.6)
(A B) C = B (A C) A (B C) (A.7)

(A B) (C D) = (A C) (B D) (A D) (B C) (A.8)
(A B) (C D) = C (A (B D)) D (A (B C))
= B (A (C D)) A (B (C D)) (A.9)

A.3. Gradiente, divergencia, rotacional y laplaciano


{ }

= i ei = , , (A.10)
x y z

U
grad U = U ei = (A.11)
xi
Ai
div A = A = (A.12)
xi
Aj
rot A = A = ijk ek (A.13)
xi
( )
2 2 2
lap A = A = A = (A) =
2
+ + A (A.14)
x2 y 2 z 2

Formulas utiles

(U ) = 0 (A.15)
( A) = 0 (A.16)
( ) = 0 (A.17)

1 ( 2)
(A ) A = A + ( A) A (A.18)
2
2 A = ( A) ( A) (A.19)
A.4. TEOREMAS INTEGRALES 141

(U A) = (U ) A + U ( A) (A.20)
(U A) = (U ) A + U ( A) (A.21)
(A B) = B ( A) A ( B) (A.22)

(A B) = (B ) A B ( A) (A ) B + A ( B) (A.23)
(A B) = (B ) A + (A ) B + B ( A) + A ( B) (A.24)

A.4. Teoremas integrales


Los teoremas integrales habituales (del gradiente, de la divergencia, del rotacional) son casos
particulares del conocido Teorema de Stokes para formas diferenciales sobre variedades

d = (A.25)
M M

donde M es una variedad diferenciable n-dimensional con frontera M , es una forma diferencial
y d denota la derivada exterior.

A.4.1. Teorema del gradiente


Tambien conocido como Teorema Fundamental del Calculo. La integral del gradiente de una
funcion escalar f a lo largo de una curva , con extremos 1 y 2 esta dada por

f dl = df = f (2 ) f (1 ), (A.26)

A.4.2. Teorema de la divergencia


Tambien conocido como Teorema de Gauss-Ostrogradsky o sencillamente Teorema de Gauss. La
integral de la divergencia de un vector f en el volumen esta dada por

f dV = f n d (A.27)

donde es la superficie que limita a y n la normal a orientada hacia el exterior.

A.4.3. Teorema del rotacional


Tambien conocido como Teorema de Stokes. La integral del rotacional de un vector f en la
superficie S esta dada por
( f ) n d = f dl (A.28)
S S

donde S es la lnea que limita a S.


142 APENDICE A. FORMULAS DE ANALISIS VECTORIAL

Expresion alternativa
Dado que no es tan estandar como los teoremas integrales anteriores, en este apartado se incluye
la deduccion de la expresion alternativa del teorema del rotacional empleada para calcular la fuerza
de tension superficial ejercida sobre un elemento de superficie.
En primer lugar, dado el campo vectorial f definimos f = F b, donde b es un vector arbitrario
constante. Con esto el Teorema de Stokes queda como

( (F b)) n d = (F b) dl (A.29)
S S

Sustituyendo en la identidad vectorial (Ec. A.23) encontramos

(F b) = (b ) F b ( F ) (A.30)

ya que b es un vector constante. Aplicando la identidad vectorial (Ec. A.5) y sustituyendo (Ec.
A.30) en (Ec. A.29) encontramos

b F dl = [b ( F ) (b ) F ] n d (A.31)
S S

Recordando que el vector b es arbitrario, la expresion alternativa del teorema del rotacional
queda finalmente como

F dl = [( F ) n (F ) n] d (A.32)
S S

A.4.4. Otros teoremas integrales



A dV = n d A (A.33)


n d = dl (A.34)
S S

A.4.5. Identidades de Green


Dadas dos funciones escalares y se cumple:

Primera identidad de Green



( )
2 + () () dV = () n d (A.35)

donde es la superficie que limita a y n la normal a orientada hacia el exterior.

Segunda identidad de Green



( )
dV =
2 2
( ) n d (A.36)

donde es la superficie que limita a y n la normal a orientada hacia el exterior.
A.4. TEOREMAS INTEGRALES 143

Bibliografa
Para elaborar este apendice se ha consultado [19] y [24] junto con las enciclopedias en internet
[26] y [29].
144 APENDICE A. FORMULAS DE ANALISIS VECTORIAL
Bibliografa

En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes.
Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliografa
complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el
debido credito a todas las fuentes consultadas.

Calculo tensorial y geometra diferencial


[1] Bishop, R. L. and S. I. Goldberg: Tensor Analysis on Manifolds. Dover, 1980.

[2] Bowen, R. M. and C. C. Wang: Introduction to Vectors and Tensors. Dover, 1976.

[3] Burgos, J.: Curso de Algebra y Geometra. Alhambra, 1980.

[4] Danielson, D. A.: Vectors and Tensors in Engineering and Physics. Perseus, 2003.

[5] do Carmo, M. P.: Geometra Diferencial de Curvas y Superficies. Alianza Universidad Textos,
1995.

[6] Flanders, H.: Dierential Forms with Applications to the Physical Sciences. Dover, 1990.

[7] Frankel, T.: The Geometry of Physics: An Introduction. Cambridge University Press, 1997.

[8] Kay, D. C.: Calculo Tensorial. McGraw-Hill, 1989.

[9] Lang, S.: Dierential and Riemannian Manifolds. Springer-Verlag, 1995.

[10] Lichnerowicz, A.: Elementos de Calculo Tensorial. Aguilar, 1972.

[11] Lipschutz, M. M.: Dierential Geometry. McGraw-Hill, 1969.

[12] Lovelock, D. and H. Rund: Tensors, Dierential Forms, and Variational Principles. Dover,
1989.

[13] Synge, J. L. and A. Schild: Tensor Calculus. Dover, 1978.

145
146 BIBLIOGRAFIA

Aplicaciones de tensores en fsica


Fsica General
[14] Feynman, R. P., R. B. Leighton, and M. L. Sands: The Feynman Lectures on Physics (3 vols.).
Addison-Wesley, 1989.

[15] Feynman, R. P., R. B. Leighton y M. L. Sands: Fsica (3 vols.). Addison-Wesley, 1999.

Mecanica Clasica
[16] Arnold, V. I.: Mathematical Methods of Classical Mechanics. Springer-Verlag, second ed.,
1990.

[17] Crawford, F.: Curso de Fsica de Berkeley (T.3): Ondas. Reverte, 1971.

Mecanica de Fluidos
[18] Aris, R.: Vectors, Tensors and the Basic Equations of Fluid Mechanics. Dover, 1990.

[19] Emanuel, G.: Analytical Fluid Dynamics. Lewis Publishers, second ed., 2000.

Relatividad
[20] Misner, C. W., K. S. Thorne, and J. A. Wheeler: Gravitation. W. H. Freeman and Company,
1973.

[21] Wald, R. M.: General Relativity. The University of Chicago Press, 1984.

[22] Weinberg, S.: Gravitation and Cosmology: Principles and Applications of the General Theory
of Relativity. Wiley, 1972.

Libros de tablas y enciclopedias en Internet


[23] Abramowitz, M. and I. A. Stegun: Handbook of Mathematical Functions with Formulas,
Graphs, and Mathematical Tables. Dover, New York, tenth ed., 1974.

[24] Spiegel, M. R. y L. Abellanas: Formulas y Tablas de Matematica Aplicada. McGraw-Hill,


1997.

[25] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre. The Wikimedia Foundation, Inc., since
2001. http://es.wikipedia.org/.

[26] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia. The Wikimedia Foundation, Inc.,
since 2001. http://www.wikipedia.org/.

[27] Weisstein, E. (ed.): Eric Weissteins World of Physics. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/physics/.
147

[28] Weisstein, E. (ed.): Eric Weissteins World of Science. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/.

[29] Weisstein, E. (ed.): Mathworld: the webs most extensive mathematics resource. Wolfram
Research Inc., since 1999. http://mathworld.wolfram.com/.

Otras referencias
LATEX
[30] http://wikipedia.org/wiki/LaTeX.

[31] Cascales Salinas, B. y cols.: LATEX una imprenta en sus manos. Aula Documental de Investi-
gacion, 2000.

[32] Kopka, H. and P. W. Daly: A Guide to LATEX: Document Preparation for Beginners and
Advanced Users. Addison-Wesley, third ed., 1999.

[33] Oetiker, T. et al.: The Not So Short Introduction To LATEX 2 . Or LATEX 2 in 157 min-
utes. Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/
lshort/english/lshort.pdf.

Linux
[34] http://www.linux.org.

[35] http://www.gnu.org.

[36] http://wikipedia.org/wiki/Linux.

[37] Siever, E. et al.: Linux in a Nutshell. OReilly, sixth ed., 2009.


148 BIBLIOGRAFIA
Indice alfabetico

aplicacion dual, 14
lineal, 17, 20, 34 Eucldeo, 12
multilineal, 42 metrico, 8
no Eucldeo, 13
base, 4 normado, 8
cambio de, 17 orientable, 60
dual, 14, 19 pre-Hilbert, 10
ortonormal, 13 producto tensorial, 39
producto tensorial, 39 tangente, 81
componentes topologico, 82
contravariantes, 19, 20, 31, 59 vectorial, 1
covariantes, 19, 20, 31, 59
fibrado
convenio de suma de Einstein, 11
cotangente, 81
coordenadas, 5
tangente, 81
delta de Kronecker, 13
grados de libertad, 31
dependencia lineal, 4
Gram-Schmidt, 13
derivada
covariante, 38 homeomorfismo, 82
parcial, 38
desigualdad triangular, 7, 8 identidad
diada, 39 BACCAB, 68
dimension, 4 independencia lineal, 4
del conjunto de coordenadas, 31 ndices
finita, 5 contraccion de, 42
infinita, 5 contravariantes, 31
distancia, 7 covariantes, 31
libres, 11
elemento
mudos, 11
neutro, 4
permutacion de, 47
nulo, 3, 4
subida y bajada de, 20, 46
opuesto, 3, 4
inversiones, 22
envolvente lineal, 5
espacio Levi-Civita, 63, 64
completo, 10 ley de transformacion tensorial, 31, 59
cotangente, 81
de Banach, 10 metrica
de Hilbert, 10 Riemanniana, 12
de Riemann, 12 matriz

149
150 INDICE ALFABETICO

adjunta, 22 afn, 40
ortogonal, 22 antisimetrico, 47
unitaria, 22 asociado, 46
axial, 57, 59
norma, 7, 9 campo tensorial, 38
Cartesiano, 48
orientacion, 60, 61 contravariante, 47
covariante, 47
paridad, 59
criterios de tensorialidad, 44
permutaciones, 22
de esfuerzos, 34
peso, 59
de tensiones, 34
potencia tensorial, 40
definicion, 39
Producto
densidad tensorial, 57, 59
de densidades tensoriales, 60
isotropo, 48
producto
metrico, 10, 16, 21
de contraccion, 43
orden, 31
diadico, 39
polar, 57, 59
escalar, 8
rango tensorial, 31, 32
exterior, 70
relativo, 57, 59
interior, 8
simetrico, 47
por escalares, 1, 3, 41
teorema
tensorial, 39, 41
de Riesz-Frechet, 14
triple escalar, 68
topologa
triple vectorial, 68
metrica, 12
vectorial, 65, 66
transformacion
propiedad
ortogonal, 22
anticonmutativa, 68, 77
unitaria, 22
asociativa, 3, 4, 39, 40, 67, 77
Binet-Cauchy, 68 variedad, 81
conmutativa, 3 vector, 3, 19
distributiva, 4, 8, 39, 67, 76
hermtica, 8
Jacobi, 68, 78
proyeccion ortogonal, 13
pseudotensor, 57, 59

rotaciones, 22

subespacio
independiente, 6
vectorial, 6
suma
de tensores, 41
de vectores, 1, 3
directa, 6

tensor, 29
absoluto, 57, 59

Das könnte Ihnen auch gefallen