Sie sind auf Seite 1von 106

UNIVERSIDAD NACIONAL “SAN LUIS GONZAGA” DE ICA

FACULTAD DE CIENCIAS

Escuela Profesional de Matemática e Informática

“TEOREMA DE STOKES Y CÁLCULO DIFERENCIAL E INTEGRAL


EN VARIEDADES”

TESIS

Para obtener el título de Licenciado


en Matemática e Informática

Presentado por:
Ditmar Silvano Sayritupac Ventura

Asesor:
Dr. Alberto Gutiérrez Borda

ICA-PERÚ
2017
DEDICATORIA

En primer lugar a Dios, el eterno Padre, quien


nos concede el privilegio de la vida y nos ofrecen
lo necesario para lograr nuestras metas.

A mi familia, porque fueron la inspiración


continua para alcanzar mis metas; con su ayuda
el camino fue fácil.

2
AGRADECIMIENTOS

Agradezco a la Facultad de Ciencias que me acogió


durante cinco años de formación de mi carrera
como matemático.

Agradezco a mis queridos profesores por su


sabiduría y desprendimiento intelectual en bien de
mi formación profesional.

Especialmente al Dr. Alberto Gutiérrez Borda, por


sus consejos, paciencia y su ejemplo, sin duda su
. ayuda fue valiosa, la amabilidad en brindarme su
asesoría tiempo y paciencia, las sugerencias y
correcciones acertadas contribuyeron a un feliz final
de la presente tesis.

3
INDICE

INDICE…………………………………...…………………………………………. 4

RESUMEN………………………………………………………………………….. 6

ABSTRACT………………………………………………………………………... 7

INTRODUCCIÓN…………………………………………………………………… 8

ANTECEDENTES…………………………………………………………………... 9

MATERIAL Y MÉTODOS…………………………………………………………… 15

RESULTADOS

CAPÍTULO I INTEGRALES DE LÍNEA Y EL TEOREMA DE STOKES

1.1. Integrales de línea…………………..……………………………………... 16


1.1.1. Teorema fundamental del cálculo ………………………………… 24
1.2. El teorema de Green o de la Divergencia……….……………………….. 26
1.3. El teorema de Stokes……………………………………………………….. 35
1.3.1. Representación implícita……………………………………………. 35
1.3.2. Representación explícita……………………………………………. 36
1.3.3. Representación paramétrica………………………………………… 36
1.3.4. Plano tangente………………………………………………………… 37
1.3.5. Área de superficie…………………………………………………….. 39
1.3.6. Teorema de la divergencia…………………………………………… 52

CAPÍTULO II FORMAS DIFERENCIALES

2.1. Formas alternadas …………………………………………….………….. 57


2.2. Formas diferenciales .…………………………………………………...... 66

CAPÍTULO III INTEGRACIÓN EN VARIEDADES

3.1. Variedades diferenciable ……..………….…..………..…………….... 78


3.2. Teorema de Stokes ……….……………………………………………. 86
3.2.2. Existencia de la unicidad de partición diferenciable …………… 91

4
DISCUSIONES……………………………………………………………………….. 97

CONCLUSIONES……………………………………………………………….….. 102

SUGERENCIAS…………………………………………………………………….. 104

BIBLIOGRAFÍA……………………………………………………………………… 105

5
RESUMEN

En este trabajo se discute el teorema de Stokes, inicialmente, por medio de la

motivación física del cálculo del trabajo, se trata las integrales de línea versus

el teorema fundamental del cálculo. Se analiza el teorema de Green como un

resultado importante del estudio de las integrales de línea, su relación con la

integral doble sobre la región limitada por la curva sobre el cual se relaciona.

El teorema de Stokes expresa una relación entre una integral de superficie y

una integral de línea donde la curva es borde de la superficie; se utiliza

nociones de una k- forma, y para la demostración del teorema de Stokes, se

establece la integral de una k-forma definida en una variedad diferenciable.

Para generalizar el teorema de Stokes, fue necesario ampliar el concepto de

superficie para dimensiones mayores es decir variedades.

Palabras claves: Teorema de Stokes, Variedades, Teorema de Green, k-formas.

6
ABSTRACT

In this paper the Stokes theorem is discussed, initially, by means of the

physical motivation of the calculation of the work, it deals with line integrals

versus the fundamental theorem of calculus. Green's theorem is analyzed as

an important result of the study of line integrals, its relationship with the double

integral over the region limited by the curve on which it is related.

Stokes's theorem expresses a relation between the integral one of surface and

the integral one of line where the curve is an edge of the surface; we use

notions of one k - it forms, and for the demonstration of Stokes's theorem, we

establish the integral of a k-form defined in a distinguishable variety. To

generalize Stokes's theorem, it was necessary to extend the surface concept

for major dimensions it is to say varieties.

Key words: Stokes' theorem, Varieties, Green's theorem. K-forms.

7
INTRODUCCIÓN

El trabajo está asociado con el teorema de Stokes, se trata como una


extensión directa del teorema de Green, lo cual relaciona la integral de línea
de un campo vectorial a lo largo de una curva cerrada; se asocia tanto para
aplicaciones en superficies, así como sus generalizaciones en superficies
abstractas de dimensiones arbitrariamente grandes, llamadas variedades. Se
pone especial énfasis en el teorema de la divergencia por su relación de una
integral triple con una integral de superficie.

El trabajo queda organizado en tres capítulos: En el capítulo 1, se trata del


concepto de integral de línea, lo cual es motivado por el cálculo del trabajo
realizado por una fuerza para mover una partícula en el espacio. Es de vital
importancia aquí la presentación de los teoremas de Green, Stokes y Gauss.
Enuncio varios teoremas de manera independiente de las formas
diferenciales, debido a que me parece interesante desde el punto de vista del
cálculo usual para dos y tres variables, simplificando algunos resultados y
haciendo posible la presentación de los teoremas sin mucho prerrequisito.

El capítulo 2, fue necesario desarrollar el álgebra de las aplicaciones


multiliniales, enfatizando en particular las aplicaciones alternadas, motivando
muchos de los resultados con respecto a las formas diferenciales, por cierto,
consideramos solo aplicaciones de la forma 𝑇: Vx … x𝑉 → ℝ, esto es, con
codominio real; en particular, tales aplicaciones son comúnmente
denominadas formás.
El Capítulo 3, es la parte central del trabajo, se distingue dos secciones; donde
la primera, es dedicada al concepto de variedad diferenciable, y la segunda
dedicada al teorema de Stokes. Se muestra las consideraciones necesarias
con respecto de la integral de una k-forma en una variedad diferenciable, para
posteriormente hacer uso de la demostración del teorema de Stokes; sin
embargo, la forma en que se presenta el teorema se restringe solo para el
caso en que la variedad considerada es compacta y orientable, lo que facilita
su interpretación y también su demostración.

8
ANTECENDETES

Para estudiar de dónde proviene el Teorema de Stokes en Variedades hay

que referirse necesariamente a los orígenes de sus tres antecedentes: a los

teoremas de Green, Gauss y Stokes. Revisando referencias se puede

encontrar el inicio sobre estos tres teoremas, en cuanto a que ninguno de ellos

corresponde a su supuesto autor, (Katz, 1979).

Veremos, según lo desarrollado por Katz, cuál es el verdadero origen de cada

uno de ellos. El Teorema de Gauss, fue el primero de los tres teoremas en ser

enunciado y probado en la forma en que actualmente es conocido. A pesar de

haber aparecido ciertos casos particulares del mismo en una publicación de

Carl Friedrich Gauss de 1813, el primer registro que se tiene de una prueba

del teorema en su forma más general es un manuscrito de un trabajo

presentado por el matemático ruso Michael Ostrogradsky en el año 1826.

Se puede destacar que la primera publicación del resultado por su autor fue

en 1831. Es por eso que no resulta sorprendente el hecho de que el resultado

aparezca publicado en formas idénticas o similares por Simeon-Denis Poisson

en 1828, por Frederic Sarrus, y por George Green, el cual probó en una

publicación privada del mismo año la fórmula conocida como “segunda

identidad de Green”, que es de hecho similar al Teorema de la Divergencia,

(Ralph et al; 1983).

Es importante resaltar, para explicar por qué fue este resultado el primero en

aparecer a lo largo de la historia, a pesar de ser usualmente el último en

mencionarse en los cursos de Cálculo Vectorial, es que todos los matemáticos

9
que llegaron a enunciar y demostrar distintas versiones de este teorema

estaban interesados en realidad en problemas de la Física, y lo utilizaron como

una herramienta para obtener un resultado de esa índole. En efecto, Gauss

estaba interesado en la teoría de atracción magnética, Ostrogradsky en la

teoría del calor, Green en electricidad y magnetismo, Poisson en cuerpos

elásticos, y Sarrus en cuerpos flotantes, (Stokes, 1905).

Respecto del Teorema de “Green” ocurría parecido al teorema anterior, este

resultado no fue originalmente enunciado y mucho menos probado por Green.

Como era de esperarse, dada su íntima relación con la teoría de variable

compleja, los protagonistas en la historia inicial de este teorema son Augustin

Cauchy y Bernhard Riemann. Podemos encontrar en notas de 1846 de

Cauchy el resultado enunciado en la forma en la que actualmente lo

conocemos, utilizado fuertemente en la prueba de la fórmula de Cauchy en el

disco, y posteriormente de su teorema sobre la integral de una función

analítica alrededor de una curva cerrada (Ostrogradsky, 1965).

Sin embargo, no se conoció ninguna demostración de su autoría. Quien sí

demostró el resultado completamente, también para aplicarlo en la teoría de

variable compleja, fue Riemann en su disertación inaugural en 1851.

En cuanto al Teorema de “Stokes”, la versión clásica del llamado Teorema de

Stokes apareció por primera vez públicamente como el problema número

ocho del examen para el Premio Smith en 1854, prueba de la cual era

responsable Sir George Gabriel Stokes en la Universidad de Cambridge. Sin

embargo, se sabe que este mismo resultado fue enviado en una carta de

William Thomson (Lord Kelvin) a Stokes en Julio de 1850.

10
A pesar de toda esta enorme confusión con los nombres, vale la pena

mencionar que en las primeras publicaciones e incluso en algunas de la

actualidad, los autores rusos se referían al Teorema de Gauss como Teorema

de Ostrogradsky, y los franceces se referían al Teorema de Green como

Teorema de Riemann, (Katz, 1979).

En cuanto a la generalización, el primero en dar una generalización n-

dimensional de alguno de estos resultados fue Ostrogradsky, quien en una

publicación de 1836 enunció y probó un teorema muy similar al Teorema de

la Divergencia en su versión general. Pero si nos referimos a un resultado que

contenga a los tres teoremas como casos particulares no podemos dejar de

mencionar a Vito Volterra, un matemático italiano que en 1889 publicó con

demostración, lo que él llamó una “extensión del Teorema de Stokes”. Sin

embargo, ésta no llegaba a tener la generalidad del Teorema de Stokes en

Variedades.

Más tarde, uno de los encargados de hacerle mejoras fue Henri Poincaré,

quien en 1899 enunció la misma generalización, pero en una forma

sumamente más breve y compacta. Curiosamente hasta ese entonces

ninguno de ellos hablaba explícitamente de formas diferenciales. Quien puso

en claro las cosas con respecto a las formas diferenciales fue Elie Cartan, en

una publicación de 1899. Allí definió las “expresiones diferenciales”, que luego

pasarían a ser llamadas formas diferenciales, e incluso el concepto de

“derivada exterior”, (Cartan, 1945).

Cartan continuo trabajando con las expresiones diferenciales, en uno de sus

resultados, menciona a los Teoremas de Stokes (clásico) y de la Divergencia

11
en la forma en que se expresa el Teorema de Stokes en Variedades, es decir,

relacionando la integral de la derivada exterior de una forma sobre un conjunto

con la integral de la forma sobre el borde; ya en 1936, en un curso que dictó

en Paris, fue que enunció en su forma final el Teorema de Stokes en

Variedades.

12
ENUNCIADO DEL PROBLEMA

La pregunta que conduce al teorema de Stokes desde el punto de vista

matemático es muy natural, a este nivel, sobreentendemos “varias variables”

como variedades.

Sean 𝑀𝑛 una variedad diferenciable con borde, compacta y orientable, 𝜔 una

(𝑛 − 1) − forma diferenciable en 𝑀 e 𝑖: 𝜕𝑀 → 𝑀 una aplicación inclusión.

Entonces

∫ 𝑖 ∗ 𝜔 = ∫ 𝑑𝜔.
𝜕𝑀 𝑀

Por lo que me pregunto: ¿El teorema de Stokes se podrá relacionar con el

cálculo diferencial e integral en variedades?.

HIPOTESIS GENERAL

Sí el teorema de Stokes se relaciona con el cálculo diferencial e integral en

variedades.

HIPOTESIS ESPECÍFICO

El teorema de Stokes, se generaliza con el cálculo diferencial e integral a

ciertos espacios 𝑉 denominados variedades diferenciables.

13
OBJETIVO GENERAL

Relacionar el teorema de Stokes con el cálculo diferencial e integral en

variedades.

OBJETIVO ESPECIFICO

Demostrar el teorema de Stokes como una generalización con el cálculo

diferencial e integral a ciertos espacios 𝑉 denominados variedades

diferenciables.

14
MATERIALES Y MÉTODOS

MATERIALES:

Se centra interés en aspectos simbólicos, derivados del pensamiento, de

manera que la recolección de información y datos son por revisión de

textos, libros y revista, directamente relacionados con el tema, que luego

pasamos a: localizar, recoger, seleccionar, y sintetizar información.

MÉTODO:

La investigación corresponde a una ciencia formal, de manera que se utiliza

el método de análisis, la inducción, la deducción y la lógica; seguimos la

técnica de citas de libros; comprobamos nuestros hallazgos mediante el

razonamiento inductivo deductivo.

15
RESULTADOS

CAPÍTULO I.

INTEGRALES DE LÍNEA Y EL TEOREMA DE STOKES

Primero daremos una exposición de mecanismos necesarios para el

desarrollo, prueba y aplicaciones del teorema de Stokes que en algunos textos

se llama teorema fundamental del cálculo de varias variables por su carácter

de generalización del teorema fundamental del cálculo en una variable.

Nos centraremos principalmente en exposición de teoremas para aplicaciones

en ℝ2 y ℝ3 y en los siguientes comenzamos la presentación de los requisitos

para su generalización. Iniciamos ahora con el estudio de las integrales sobre

las curvas en el espacio, tradicionalmente llamadas integrales de línea, y poco

después haremos caso especial del teorema de Stokes en ℝ2 , llamado el

teorema de Green, y, por último, daremos el Teorema Stokes para el caso ℝ3 .

1.1 INTEGRALES DE LÍNEA

Cuando ā es una partícula que se mueve a lo largo de un segmento de

recta en el espacio, con punto inicial 𝐴 final 𝐵 , y 𝐹 es una fuerza

constante, sabemos que el trabajo realizado por 𝐹 para mover ā a lo largo

de 𝐴𝐵 es dado por:

⃗⃗⃗⃗⃗⃗
𝑊 = 𝐹⃗ . 𝐴𝐵 (1.1)

Donde “.” denota el producto interno.

Cuando ā se mueve a lo lago de la curva 𝐶, podemos aproximarlo por una

línea poligonal con vértices en 𝐶, dividiendo el segmento por medio de

16
una partición regular, para entonces usar la ecuación (1.1) y obtener el

trabajo en el desplazamiento de la partícula a lo largo de 𝐶, y esto será

nuestra motivación para la definición integral de línea.

Definición 1.1.1

Una partición P de un intervalo cerrado [𝑎, 𝑏] es una sucesión 𝑡0 , … , 𝑡𝑛.

donde

𝑎 = 𝑡0 < ⋯ < 𝑡𝑛 = 𝑏.

En este caso P es de orden 𝑛, pues separa [𝑎, 𝑏] en 𝑛 subintervalos.

Diremos ahora que P es regular si para cualquier 𝑗 = 1,2,3 … , 𝑛 − 1. con

𝑏−𝑎
𝑡𝑗+1 − 𝑡𝑗 =
𝑛

Sean

𝐹: ℝ3 → ℝ3

(𝑥, 𝑦, 𝑧) → 𝐹(𝑥, 𝑦, 𝑧) = (𝐹1 (𝑥, 𝑦, 𝑧), 𝐹2 (𝑥, 𝑦, 𝑧), 𝐹3 (𝑥, 𝑦, 𝑧)),

Un campo vectorial, y 𝐶 una curva en ℝ3 , definida por

ρ(t) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡)), tϵ[𝑎, 𝑏].

Dividimos el intervalo 𝐼 = [𝑎, 𝑏] por medio de una partición regular de

orden 𝑛,

𝑎 = 𝑡0 < ⋯ < 𝑡𝑖 < ⋯ < 𝑡𝑛 = 𝑏,

y obtenemos una línea poligonal de vértices

ρ(𝑡) = (𝑥(𝑡𝑖 ), 𝑦(𝑡𝑖 ), 𝑧(𝑡𝑖 )), 𝑖 = 0 … , 𝑛 − 1.

17
Pero, para 𝑛 grande ∆𝑡𝑖 = 𝑡𝑖+1 − 𝑡𝑖 es pequeño, el desplazamiento de la

Partícula de ρ(𝑡𝑖 ) hasta ρ(𝑡𝑖+1 ) es aproximado por el vector

∆𝑆𝑖 = ρ(𝑡𝑖+1 ) − ρ(𝑡𝑖 ),

y 𝐹 puede ser considerada constante e igual a 𝐹(ρ(𝑡𝑖 )) en el

intervalo[𝑡𝑖 , 𝑡𝑖+1 ]. Suponga que ρ sea de clase 𝐶 1 en [𝑎, b], entonces por

la definición de derivada, tenemos

ρ(𝑡𝑖+1 ) − ρ(𝑡𝑖 ) ∆𝑆𝑖


ρ′ (𝑡𝑖 ) = ⇒ ρ′ (𝑡𝑖 ) = ⇒ ∆𝑆𝑖 ≈ ρ′ (𝑡𝑖 )∆𝑡𝑖 . (1.2)
𝑡𝑖+1 − 𝑡𝑖 ∆𝑡𝑖

Por tanto el trabajo realizado para desplazar una partícula de ρ(𝑡𝑖 )

hasta ρ(𝑡𝑖+1 ) es aproximadamente

𝐹(ρ(𝑡𝑖 )). ∆𝑆𝑖 ≈ (𝐹(ρ(𝑡𝑖 )). ρ′ (𝑡𝑖 )∆𝑡𝑖 . (1.3)

Así mismo, el trabajo 𝑊 realizado por la fuerza 𝐹 para desplazar una

partícula a lo largo de 𝐶 es

𝑛−1

𝑊 = lim (∑(𝐹(ρ(𝑡𝑖 )). ρ′ (𝑡𝑖 )∆𝑡𝑖 ) , (1.4)


𝑛→∞
𝑖=0

si ρ es de clase 𝐶 1 en [𝑎, 𝑏] y el campo 𝐹(𝑥, 𝑦, 𝑧) es continuo en 𝐶, el limite

existe y es igual a

𝑊 = ∫(𝐹( ρ(𝑡))). ρ′ (𝑡))𝑑𝑡. (1.5)


𝑎

18
Definición 1.1.2

Consideremos una curva 𝐶 en ℝ3 parametrizada por

ρ(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡))𝑡 𝜖 [𝑎, 𝑏],

donde ρ es de clase 𝐶 1 , y 𝐹(𝑥, 𝑦, 𝑧) = (𝐹1 (𝑥, 𝑦, 𝑧), 𝐹2 (𝑥, 𝑦, 𝑧), 𝐹3 (𝑥, 𝑦, 𝑧))

un campo vectorial continuo definido en 𝐶. Definimos la integral de línea

de 𝐹 a lo largo de 𝐶 por

∫ 𝐹. 𝑑𝑟 = ∫ (𝐹(ρ(𝑡)). ρ′ (𝑡)) 𝑑𝑡.


𝐶 𝑎

Recordando que:

𝐹 = (𝐹1 (𝑥, 𝑦, 𝑧), 𝐹2 (𝑥, 𝑦, 𝑧), 𝐹3 (𝑥, 𝑦, 𝑧)) 𝑦 ρ(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡)) ,

y el uso de sus componentes, la ecuación anterior se obtiene de la

siguiente forma:

∫ 𝐹. 𝑑𝑟 = ∫ (𝐹1 (ρ(𝑡)). 𝑥 ′ (𝑡)) 𝑑𝑡 + (𝐹2 (ρ(𝑡)). 𝑦 ′ (𝑡))


𝐶 𝑎

+ (𝐹3 (ρ(𝑡)). z ′ (𝑡)) (1.6)

que comúnmente es simplificada para

∫ 𝐹. 𝑑𝑟 = ∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 + 𝐹3 𝑑𝑧 . (1.7)
𝐶 𝐶

Si la curva 𝐶 es cerrada la integral de línea es denotada por

19
∮ 𝐹. 𝑑𝑟 , (1.8)
𝐶

Podemos adaptar la definición (1.1.2) para una integral de línea de función

escalar de la siguiente forma. Sea 𝑓: ℝ3 → ℝ una función real y 𝐶 una

curva en ℝ3 , definida por la función

ρ: I = [𝑎, 𝑏] → ℝ3
𝑡 → ρ(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡)).

Dividimos el intervalo 𝐼 = [𝑎, 𝑏] como se hizo anteriormente, por medio de

una partición regular, obteniendo una descomposición de 𝐶 en curvas 𝐶𝑖

definidas en [𝑡𝑖 , 𝑡𝑖+1 ]. Si ρ(𝑡) es de clase 𝐶 1 , y denotando por ∆𝑆𝑖 la

longitud de la curva 𝐶𝑖 se tiene que, por la fórmula de longitud de arco


𝑡𝑖+1

∆𝑆𝑖 = ∫ ‖ρ′ (t)‖𝑑𝑡 , (1.9)


𝑡𝑖

por el teorema del valor medio para integrales, existe 𝑢𝑖 𝜖[𝑡𝑖 , 𝑡𝑖+1 ] tal que

∆𝑆𝑖 = ‖ρ′ (𝑢𝑖 )‖(𝑡𝑖+1 − 𝑡𝑖 ) = ‖ρ′ (𝑢𝑖 )‖∆𝑡𝑖 , Donde ∆𝑡𝑖 = 𝑡𝑖+1 − 𝑡𝑖 .

Cuando 𝑛 es grande, ∆𝑆𝑖 es pequeño y 𝑓(𝑥, 𝑦, 𝑧) puede ser considerada

constante en 𝐶𝑖 e igual a 𝑓(ρ ( 𝑢𝑖 )). Obtenemos asimismo la suma de

Riemann
𝑛−1

∑ 𝑓(ρ(𝑢𝑖 )) ‖ρ′ (𝑢𝑖 )‖∆𝑡𝑖 , (1.10)


𝑖=0

luego, si consideramos 𝑓(𝑥, 𝑦, 𝑧) constante en 𝐶, obtenemos

𝑛−1 𝑏

lim (∑(𝑓(ρ(𝑢𝑖 ))‖ρ′ (𝑢𝑖 )‖∆𝑡𝑖 ) = ∫ 𝑓(ρ(𝑢𝑖 )) ‖ρ′ (𝑢𝑖 )‖ 𝑑𝑡 . (1.11)


𝑛→∞
𝑖=0 𝑎

20
Definición 1.1.3

Consideremos una curva 𝐶 en ℝ3 parametrizada por

ρ(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡)), 𝑡 𝜖[𝑎, 𝑏],

Donde ρ es de clase 𝐶 1 , y 𝑓(𝑥, 𝑦, 𝑧) una función real continua en 𝐶 .

Definimos la integral de línea de 𝑓 a lo largo de 𝐶 por

∫ 𝑓𝑑𝑠 = ∫ 𝑓(𝑥, 𝑦, 𝑧) 𝑑𝑠 = ∫ 𝑓(ρ(𝑡))‖ρ′ (𝑡)‖ 𝑑𝑡.


𝐶 𝐶 𝑎

Observación 1.1.1

Si 𝑓(𝑥, 𝑦, 𝑧) = 1 obtenemos simplemente la fórmula de longitud de la curva

𝐶,

𝑏
∫ 𝑑𝑠 = ∫ ‖ρ′ (𝑡)‖𝑑𝑡. (1.12)
𝐶 𝑎

Supongamos ahora que una partícula se mueve a lo largo de una curva

𝐶, parametrizada por una función ρ(𝑡), y que exista una parametrización

equivalente 𝛽(𝑡) de 𝐶.

Veremos entonces la relación entre las integrales

∫ 𝐹. 𝑑𝑟 𝑦 ∫ 𝐹. 𝑑𝑟 , (1.13)
𝑐ρ 𝐶β

Donde 𝑐ρ es la parametrizacion de 𝐶 por ρ(𝑡) y 𝐶β es la

parametrizacion de 𝐶 por 𝛽(𝑡).

Definición 1.1.4

Sea ρ(𝑡) (𝑎 ≤ 𝑡 ≤ 𝑏) y 𝛽(𝑡) (𝑐 ≤ 𝑡 ≤ 𝑑) dos parametrizaciones de

clase 𝐶 1 de una curva 𝐶. Diremos que ρ(t) y 𝛽(𝑡)son parametrizaciones

21
equivalentes si existe una función ℎ: [𝑐, 𝑑] → [𝑎, 𝑏], biyectiva y de clase 𝐶 1 ,

tal que

𝛽(𝑡)= ρ(ℎ(𝑡)), c ≤ 𝑡 ≤ d,

Si ℎ es creciente, diremos que ℎ preserva la orientación.

Teorema 1.1.1

Sean ρ(𝑡) (𝑎 ≤ 𝑡 ≤ 𝑏) y 𝛽(𝑡) (𝑐 ≤ 𝑡 ≤ 𝑑) parametrizaciones𝐶 1 por partes

y equivalentes, es decir, existe ℎ dada por la definición anterior. Si ℎ

preserva la orientación, entonces

∫ 𝐹. 𝑑𝑟 = ∫ 𝐹. 𝑑𝑟,
𝐶β 𝑐ρ

Si ℎ invierte la orientación, entonces

∫ 𝐹. 𝑑𝑟 = − ∫ 𝐹. 𝑑𝑟.
𝐶β 𝑐ρ

Demostración:

Si ρ(𝑡) y 𝛽(𝑡) son equivalentes, entonces existe ℎ tal que 𝛽(𝑡) = ρ(ℎ(𝑡)) ,

𝑡 ∈ [𝑐, 𝑑]. Entonces

𝑑 𝑑
∫ 𝐹. 𝑑𝑟 = ∫ 𝐹( β(𝑡) ). β′ (𝑡)𝑑𝑡 = ∫ 𝐹( ρ(ℎ(𝑡))). ρ′ (ℎ(𝑡))𝑑𝑡
𝐶β 𝑐 𝑐

𝑑
= ∫ 𝐹( ρ(ℎ(𝑡))). ρ′ (ℎ(𝑡)). ℎ′ (𝑡)𝑑𝑡.
𝑐

22
Haciendo 𝑢 = ℎ(𝑡) obtenemos 𝑑𝑢 = ℎ′ (𝑡)𝑑𝑡, entonces

ℎ(𝑑)
∫ 𝐹. 𝑑𝑟 = ∫ 𝐹(ρ(𝑢)). ρ′ (𝑢)𝑑𝑢 ,
𝐶β ℎ(𝑐)

por lo tanto:

ℎ(𝑑) 𝑏
∫ 𝐹. 𝑑𝑟 = ∫ 𝐹(ρ(𝑢)). ρ′ (𝑢)𝑑𝑢 = ∫ 𝐹(ρ(𝑢)). ρ′ (𝑢)𝑑𝑢 = ∫ 𝐹. 𝑑𝑟 ,
𝐶β ℎ(𝑐) 𝑎 𝑐ρ

Si ℎ preserva la orientación (ℎ es creciente), y

ℎ(𝑑) 𝑏
∫ 𝐹(ρ(𝑢)). ρ′ (𝑢)𝑑𝑢 = ∫ 𝐹(ρ(𝑢)). ρ′ (𝑢)𝑑𝑢 = − ∫ 𝐹. 𝑑𝑟,
ℎ(𝑐) 𝑎 𝑐ρ

si ℎ invierte la orientación (ℎ es decreciente).

Observe que el procedimiento utilizado es posible por la fórmula con que

se define una parametrización equivalente, es decir es, por existir una

biyeccion

ℎ: [𝑐, 𝑑] → [𝑎, 𝑏].

Para ser definidos en términos generales de integrales ordinarias, las

integrales de línea gozan de algunas importantes propiedades de las

integrales ordinarias, como linealidad y la aditividad, como sigue:

Linealidad:

∫ (𝑎𝐹 + 𝑏𝐺). 𝑑𝑟 = 𝑎 ∫ 𝐹. 𝑑𝑟 + 𝑏 ∫ 𝐺. 𝑑𝑟. (1.14)


𝐶 𝐶 𝐶

23
Aditividad:

Si 𝐶 admite una descomposición de un número finito de curvas

𝐶1 , … , 𝐶𝑛 , entonces

∫ 𝐹. 𝑑𝑟 = ∑ ∫ 𝐹. 𝑑𝑟 , (1.15)
𝐶 𝑖=1 𝐶𝑖

Vemos ahora que la integral de línea depende de la forma, esto es, la

curva 𝐶 el cual se está considerando. Ahora analizamos en qué

condiciones la integral de línea depende solo de los puntos inicial y final

del camino 𝐶. Veremos que esto está relacionado con las características

del campo vectorial al cual se está considerando, (Apóstol, 1969).

Antes de enunciar el teorema que nos dará una condición para que la

integral de línea dependa solamente de los puntos inicial y final,

tendremos el teorema fundamental del cálculo, pues además de utilizarlo

en la próxima demostración, podremos observar una cierta semejanza

con el teorema en cuestión.

1.1.1 TEOREMA FUNDAMENTAL DEL CÁLCULO

Teorema 1.1.2

Sea 𝑓 una función continua en el intervalo cerrado [𝑎, 𝑏] y 𝑔 una


función, con

𝑔′ (x) = 𝑓(𝑥) para todo 𝑥 ϵ [𝑎, 𝑏]. Entonces

𝑏
∫ 𝑓(𝑡)𝑑𝑡 = 𝑔(𝑏) − 𝑔(𝑎).
𝑎

24
Demostración. ( Véase [1] )

Teorema 1.1.3

Sea 𝐹 un campo vectorial continuo definido en un abierto 𝑈 ⊂ ℝ3 , para el

cual existe una función real 𝑓 tal que 𝛻𝑓 = 𝐹 en 𝑈, si 𝐶 es una curva en

𝑈 con punto inicial 𝐴 y final 𝐵, parametrizada por una función ρ(t), 𝐶 1 por

partes, entonces

∫ 𝐹. 𝑑𝑟 = ∫ 𝛻𝑓. 𝑑𝑟 = 𝑓(𝐵) − 𝑓(𝐴).


𝐶 𝐶

Demostración:

Sea 𝐴 = ρ(𝑎) y 𝐵 = ρ(𝑏) los puntos inicial y final de 𝐶, respectivamente.

Entonces, como

𝑏
∫ 𝐹. 𝑑𝑟 = ∫ 𝛻𝑓( 𝜌(𝑡)). 𝜌′ (𝑡)𝑑𝑡 ,
𝐶 𝑎

Basta hacer 𝑔(𝑡) = 𝑓(ρ(𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏 y obtenemos, por la regla de la

cadena, que: 𝑔′ (𝑡) = 𝛻𝑓(𝜌(𝑡)) ρ′ (𝑡).

Y finalmente, por el teorema fundamental del cálculo,

𝑏
∫ 𝐹. 𝑑𝑟 = ∫ 𝑔′ (𝑡)𝑑𝑡 = 𝑔(𝑏) − 𝑔(𝑎) = 𝑓( ρ(𝑏)) − 𝑓(ρ(𝑎))
𝐶 𝑎

= 𝑓(𝐵) − 𝑓(𝐴).

25
Definición 1.1.5

Un campo vectorial 𝐹 es llamado el campo vectorial conservativo, si y

sólo si, es el campo gradiente de una función 𝑓. Esta función 𝑓 tiene el

nombre de función potencial.

1.2 TEOREMA DE GREEN

El teorema de Green trata de un resultado muy importante del estudio

de las integrales de línea, pues lo relaciona con una integral doble sobre

la región limitada por la curva al cual estamos considerando, de la

siguiente forma:

𝜕𝐹2 𝜕𝐹1
∮ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 = ∬ ( − )𝑑𝑥𝑑𝑦, (1.16)
𝜕𝐷 𝐷 𝜕𝑥 𝜕𝑦

Sin embargo para la validez de (1.16) es necesario suponer la validez de

dos condiciones. Primero, es necesario que las funciones 𝐹1 y 𝐹2 sean

integrables. En segundo lugar, tenemos condiciones impuestas por

naturaleza a la región 𝐷 y su frontera 𝜕𝐷, (Do Carmo, 2008).

Será necesario que 𝜕𝐷 sea una curva cerrada simple, es decir, se

parametriza por una función ρ definida en un intervalo cerrado [𝑎, 𝑏] ,

entonces ρ(𝑎) = ρ(𝑏). Además, ρ(𝑡1 ) ≠ ρ(𝑡2 ), para todo 𝑡1 ≠ 𝑡2 , donde

𝑡1 , 𝑡2 𝜖 (𝑎, 𝑏).

26
Las curvas cerradas simples son usualmente llamadas curvas de

Jordán(1).

Antes de enunciar el teorema, hacemos las siguientes definiciones:

Definición 1.2.1

Una región 𝐷 del plano 𝑥𝑦 es llamada la región de tipo 𝐼 si existen

𝜙1 𝑦 𝜙2 funciones, tal que la región puede ser descrita de la siguiente

forma:

𝐷 = {(𝑥, 𝑦)𝜖 ℝ2 : 𝑎 ≤ 𝑥 ≤ 𝑏 𝑦 𝜙1 (𝑥) ≤ 𝑦 ≤ 𝜙2 (𝑥)}.

Definición 1.2.2

Una región 𝐷 del plano 𝑥𝑦 es llamada la Región de tipo 𝐼𝐼 si existen

𝛹1 𝑦 Ψ2 funciones, tal que la región puede ser descrita de la siguiente

forma:

𝐷 = {(𝑥, 𝑦)𝜖 ℝ2 : 𝑐 ≤ 𝑦 ≤ 𝑑 𝑦 𝛹1 (𝑦) ≤ 𝑥 ≤ 𝛹2 (𝑦)}.

Definición 1.2.3

Una región 𝐷 del plano 𝑥𝑦 es simple si puede ser descrita como una

región de tipo 𝐼 𝑦 𝐼𝐼, simultáneamente.

__________________________________________________________

(1) Matemático francés Camille Jordán (1838-1922), uno de los pioneros en estudio sobre

las curvas y arcos cerrados.

27
Definición 1.2.4

Diremos que la frontera 𝜕𝐷 , de una región limitada 𝐷 esta orientada

positivamente si la región 𝐷 es fija a la izquierda, si recorremos la frontera

𝜕𝐷.

Definición 1.2.5

Consideremos un campo vectorial 𝐹: 𝑈 ⊂ ℝ3 → ℝ3 . 𝐹 es de clase 𝐶 1 si

𝜕𝐹𝑖
todas las derivadas parciales 𝜕𝑥𝑗
de las funciones coordenadas 𝐹 son

continuas en el conjunto abierto 𝑈.

1.2.1 TEOREMA DE GREEN

Teorema 1.2.1

Sea 𝐷 una región cerrada y acotada del plano 𝑥𝑦, cuya frontera 𝜕𝐷 está

orientada positivamente y es parametrizada por una función 𝐶 1 por partes,

de modo que 𝜕𝐷 sea atrabezada solo una vez (𝜕𝐷 sera una curva de

Jordan).

Si 𝐹(𝑥, 𝑦) = (𝐹1 (𝑥, 𝑦), 𝐹2 (𝑥, 𝑦)) es un campo vectorial de clase 𝐶 1 en un

subconjunto abierto que contiene 𝐷, entonces

𝜕𝐹2 𝜕𝐹1
∮ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 = ∬ ( − )𝑑𝑥.
𝜕𝐷 𝐷 𝜕𝑥 𝜕𝑦

28
Demostración:

Supongamos primeramente que 𝐷 es una región simple, esto es, 𝐷

puede ser descrita simultáneamente por una región de tipo 𝐼 y de tipo 𝐼𝐼.

Observe que es válida la siguiente identidad:

𝜕𝐹2 𝜕𝐹1 𝜕𝐹2 𝜕𝐹1


∬ ( − )𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑑𝑥𝑑𝑦 + ∫ ∫ − 𝑑𝑥𝑑𝑦,
𝐷 𝜕𝑥 𝜕𝑦 𝐷 𝜕𝑥 𝐷 𝜕𝑦

siendo así, si 𝐷 es de tipo 𝐼, tenemos

𝑏 ϕ2 (𝑥)
𝜕𝐹1 𝜕𝐹1
∫∫ − 𝑑𝑥𝑑𝑦 = ∫ ∫ (− )𝑑𝑥𝑑𝑦
𝐷 𝜕𝑦 𝑎 ϕ (𝑥) 𝜕𝑦
1

𝑏 𝑏
= ∫ 𝐹1 (𝑥, ϕ1 (𝑥)) 𝑑𝑥 − ∫ 𝐹2 (𝑥, ϕ2 (𝑥)) 𝑑𝑥 = ∮ 𝐹1 𝑑𝑥
𝑎 𝑎 𝜕𝐷

De forma análoga, suponiendo ahora 𝐷 de tipo 𝐼𝐼,obtenemos

𝑑 Ψ2 (𝑦) 𝑑
𝜕𝐹2 𝜕𝐹2
∬ 𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑑𝑥𝑑𝑦 = ∫ [ 𝐹2 (Ψ2 (𝑦), 𝑦)
𝐷 𝜕𝑥 𝑐 𝛹1 (𝑦) 𝜕𝑥 𝑐

− 𝐹2 (𝛹1 (𝑦), 𝑦)]d𝑦

𝑑 𝑏
= ∫ 𝐹2 (Ψ2 (𝑦), 𝑦)𝑑𝑦 − ∫ 𝐹2 (𝛹1 (𝑦), 𝑦)𝑑𝑦 = ∮ 𝐹2 𝑑𝑦.
𝑐 𝑎 𝜕𝐷

Por tanto,

𝜕𝐹2 𝜕𝐹1
∫∫ ( − )𝑑𝑥𝑑𝑦 = ∮ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦.
𝐷 𝜕𝑥 𝜕𝑦 𝜕𝐷

29
Si 𝐷 no es simple, entonces 𝐷 puede ser descrita como una suma de
regiones simples, esto es
𝑛

𝐷 = ⋃ 𝐷𝑖 ,
𝑖=1

donde cada 𝐷𝑖 es simple con frontera 𝜕𝐷𝑖 parametrizada por una función

𝐶 1 por partes, siendo asi, podemos aplicar el teorema de Green a cada

región simple, obteniendo

𝜕𝐹2 𝜕𝐹1
∫∫ ( − ) 𝑑𝑥𝑑𝑦
𝐷 𝜕𝑥 𝜕𝑦
𝑛 𝑛
𝜕𝐹2 𝜕𝐹1
= ∑∫∫ ( − ) 𝑑𝑥𝑑𝑦 = ∑ ∮ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦.
𝐷𝑖 𝜕𝑥 𝜕𝑦 𝜕𝐷𝑖
𝑖=1 𝑖=1

Observe que si una frontera 𝜕𝐷𝑖 es recorrido dos veces, esto es, y parte

de la frontera común a dos regiones, entonces por el teorema 1.1.1 será

en sentido opuesto, y los resultados serán anulados, haciendo con que

solamente las partes forman la frontera 𝜕𝐷 sean consideradas, o que

garantice la validez del teorema.

Definición 1.2.6

Un subconjunto abierto 𝑈 ⊂ ℝ2 se dice un dominio si dos puntos

cualesquiera de 𝑈 pueden ser conectados por un poligonal totalmente

contenida en 𝑈.

30
Definición 1.2.7

Un subconjunto abierto 𝑈 ⊂ ℝ2 se dice simplemente conexo si, para

toda curva cerrada 𝐶 en 𝑈, la región acotada por 𝐶 esta totalmente

contenida en 𝑈.

Teorema 1.2.2

Si 𝑧 = 𝑓(𝑥, 𝑦) es una función de clase 𝐶 2 , entonces sus derivadas mixtas

son iguales, esto es

𝜕2 𝑓 𝜕2 𝑓
= .
𝜕𝑥𝜕𝑦 𝜕𝑦𝜕𝑥

Demostración. (Véase [1])

Teorema 1.2.3

Sea 𝐹 = (𝐹1 , 𝐹2 ) un campo vectorial de clase 𝐶 1 definido en un dominio

simplemente conexo 𝑈 ⊂ ℝ2 . Las siguientes condiciones son

equivalentes:

1. ∮𝐶 𝐹. 𝑑𝑟 = 0, cualquier que sea la curva cerrada 𝐶, 𝐶 1 por partes,

contenida en 𝑈.

2. La integral de línea de 𝐹 del punto 𝐴 hasta en punto 𝐵 es

independiente de la curva 𝐶 1 por partes, contenida en 𝑈 que une a 𝐴 𝑦 𝐵.

3. 𝐹 es un campo gradiente de alguna función potencial 𝑓 en 𝑈.

𝜕𝐹2 𝜕𝐹1
4. = .
𝜕𝑥 𝜕𝑦

31
Demostración: Vamos a probar que (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (1).

Lo que establecerá el teorema.

Primeramente, mostraremos que (1) ⇒ (2). Sean 𝐶1 𝑦 𝐶2 dos curvas 𝐶 1


por partes contenidas en 𝑈, uniendo el punto 𝐴 con el punto 𝐵 (Figura a).

𝐶1 𝐵

𝑈
𝐶2

(Figura a)

Como la curva 𝐶 = 𝐶1 ⋃𝐶2− es cerrada en 𝐶 1 por partes, entonces, por

(1), se sigue que

0 = ∮ 𝐹. 𝑑𝑟 = ∫ 𝐹. 𝑑𝑟 − ∫ 𝐹. 𝑑𝑟 ⇒ ∫ 𝐹. 𝑑𝑟 = ∫ 𝐹. 𝑑𝑟.
𝐶 𝐶1 𝐶2 𝐶1 𝐶2

Probaremos ahora que (2) ⇒ (3). Fijemos (𝑥0 , 𝑦0 ) ϵ 𝑈, y para cada

(𝑋, 𝑌) 𝜖 𝑈, definimos

(X,Y)
𝑓(𝑋, 𝑌) = ∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦.
(𝑥0,𝑦0)

32
Esta función está bien definida pues la integral es independiente del

camino que une (𝑥0 , 𝑦0 ) 𝑎 (𝑋, Y). para ∆𝑥 suficientemente pequeño

tenemos que

(𝑋+∆𝑥,Y) (X,Y)
𝑓(𝑋 + ∆𝑥, Y) − 𝑓(X, Y) = ∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 − ∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦
(𝑥0 ,𝑦0 ) (𝑥0 ,𝑦0 )

(𝑋+∆𝑥,Y)
=∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦.
(X,Y)

Como esta última integral es independiente del camino entre (X, Y) y

(𝑋 + ∆𝑥, Y), podemos tomarlo como el segmento de recta que conecta

estos puntos (figura b).

(X, Y) (𝑋 + ∆𝑥, Y)
y

(𝑥0 , 𝑦0 )

x
(Figura b)

En este segmento 𝑦 es constante y, por lo tanto 𝑑𝑦 = 0. Asimismo,

(𝑋+∆𝑥,Y) (𝑋+∆𝑥,Y)
∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 = ∫ 𝐹1 𝑑𝑥.
(X,Y) (X,Y)

Usando el teorema del valor medio para integrales

33
(𝑋+∆𝑥,Y)
∫ 𝐹1 𝑑𝑥 = ∆𝑥𝐹1 (𝑥 + 𝑡∆𝑥, Y), para algun 0 ≤ 𝑡 ≤ 1.
(X,Y)

Luego,

(𝑋+∆𝑥,Y)
𝑓((𝑋 + ∆𝑥, Y) − 𝑓(𝑋, 𝑌) 1
= ∫ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 = 𝐹1 (𝑥 + 𝑡∆𝑥, Y),
∆𝑥 ∆𝑥 (X,Y)

Tomando el límite cuando ∆𝑥 tiende a cero, tenemos

𝜕𝑓
(𝑋, 𝑌) = 𝐹1 .
𝜕𝑥

Análogamente se prueba que

𝜕𝑓
(𝑋, 𝑌) = 𝐹2
𝜕𝑦

Mostremos que (3) ⇒ (4). Si 𝐹 = ∇𝑓 en 𝑈, entonces

𝜕𝑓 𝜕𝑓
= 𝐹1 𝑦 = 𝐹2
𝜕𝑥 𝜕𝑦

Como 𝐹 es de clase 𝐶 1 , entonces 𝑓 es de clase 𝐶 2 , y considerando sus

derivadas parciales de segundo orden

𝜕 2𝑓 𝜕𝐹1 𝜕 2𝑓 𝜕𝐹2
= 𝑦 =
𝜕𝑦𝜕𝑥 𝜕𝑦 𝜕𝑥𝜕𝑦 𝜕𝑥

Obtenemos la igualdad

𝜕𝐹1 𝜕𝐹2
= .
𝜕𝑦 𝜕𝑥

Finalmente, probaremos que (4) ⇒ (1). Si 𝐶 es una curva cerrada en 𝑈,

entonces la región 𝐷 acotado por 𝐶 está contenida en 𝑈, visto que 𝑈 es

simplemente conexo. Aplicando el teorema de Green, obtenemos:

34
𝜕𝐹2 𝜕𝐹1
∮ 𝐹1 𝑑𝑥 + 𝐹2 𝑑𝑦 = ∫ ∫ ( − )𝑑𝑥𝑑𝑦 = 0.
𝐶 𝐷 𝜕𝑥 𝜕𝑦

La demostración del teorema está concluida.

1.3 TEOREMA DE STOKES

El teorema de Stokes (2), es una extensión directa del teorema de Green,

dado en la sección anterior, lo cual relaciona la integral de línea de un

Campo vectorial 𝐹 a lo largo de una curva cerrada 𝐶 en ℝ3 con la integral

sobre una superficie S, de la siguiente forma:

∫ ∫ (𝑟𝑜𝑡𝐹. 𝑛)𝑑𝑠 = ∫ 𝐹. 𝑑𝑟, (1.17)


𝑆 𝜕𝑆

para la aplicación y probar el teorema de Stokes. Recordamos algunas

maneras de describir una superficie.

1.3.1 REPRESENTACIÓN IMPLICITA

Podemos describir una superficie como un conjunto de puntos (𝑥, 𝑦, 𝑧)

que satisfacen una ecuación de la forma 𝐹(𝑥, 𝑦, 𝑧) = 0 , por ejemplo, la

esfera de radio 1 centrada en el origen tiene representación implícita,

𝑥 2 + 𝑦 2 + 𝑧 2 − 1 = 0.

______________________________________________________

(2) George Gabriel Stokes (1819-1903), matemático irlandés.

35
1.3.2 REPRESENTACIÓN EXPLICITA:

Cuando tenemos una representación implícita y es posible resolver esa

ecuación para una variable, esto es, 𝑧 = 𝐹(𝑥, 𝑦), 𝑦 = 𝐹(𝑥, 𝑧), 𝑥 = 𝐹(𝑦, 𝑧)

obtenemos la llamada representación explicita de superficie, usando el

ejemplo anterior y resolviendo la ecuación para 𝑧 , obtenemos las

representaciones explicitas:

𝑧 = √1 − 𝑥 2 − 𝑦 2 𝑦 𝑧 = −√1 − 𝑥 2 − 𝑦 2 .

1.3.3 REPRESENTACION PARAMÉTRICA:

Consideremos una función φ: 𝐷 ⊂ ℝ2 → ℝ3 definida en un subconjunto

𝐷 ⊂ ℝ2 . La imagen de 𝐷 por φ, φ(𝐷), es de hecho una superficie

parametrizada y su representación paramétrica es:

φ(𝑢, 𝑣) = (𝑥, 𝑦, 𝑧) = (𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣), 𝑧(𝑢, 𝑣)) , (𝑢, 𝑣) ∈ 𝐷 ,

la función φ es de clase 𝐶 1 si 𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣) y 𝑧(𝑢, 𝑣) son de clase 𝐶 1 .

Supongamos que una superficie 𝑆 con representación paramétrica

φ(𝑢, 𝑣) = (𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣), 𝑧(𝑢, 𝑣)) , (𝑢, 𝑣) ∈ 𝐷,

sea diferenciable en (𝑢0 , 𝑣0 ) ∈ 𝐷. Fijando 𝑢 = 𝑢0 , obtenemos una función

𝐼 ⊂ ℝ → ℝ3 ,

𝑣 → φ(𝑢0 , 𝑣),
Que define una curva 𝑣 en la superficie. Si el vector

36
𝜕φ 𝜕𝑥 𝜕𝑦 𝜕𝑧
(𝑢0 , 𝑣0 ) = ( (𝑢0 , 𝑣0 ), (𝑢0 , 𝑣0 ), (𝑢0 , 𝑣0 )),
𝜕𝑣 𝜕𝑣 𝜕𝑣 𝜕𝑣

Es no nulo, entonces es un vector tangente a esta curva en el

punto φ(𝑢0 , 𝑣0 ).

Procediendo análogamente, definimos la curva u en la superficie,

entonces. Si el vector,

𝜕φ 𝜕𝑥 𝜕𝑦 𝜕𝑧
(𝑢0 , 𝑣0 ) = ( (𝑢0 , 𝑣0 ), (𝑢0 , 𝑣0 ), (𝑢0 , 𝑣0 ) ,
𝜕𝑢 𝜕𝑢 𝜕𝑢 𝜕𝑢

Es no nulo, entonces es tangente a la curva u en φ(𝑢0 , 𝑣0 ). Cuando,

𝜕φ 𝜕φ
𝑁(𝑢0 , 𝑣0 ) = (𝑢0 , 𝑣0 ) 𝑥 (𝑢 , 𝑣 ) ,
𝜕𝑢 𝜕𝑣 0 0

es no nulo, 𝑁(𝑢0 , 𝑣0 ) es normal al plano generado por los vectores

𝜕φ 𝜕φ
(𝑢 , 𝑣 ) 𝑦 (𝑢 , 𝑣 ).
𝜕𝑢 0 0 𝜕𝑣 0 0

1.3.4 PLANO TANGENTE

Definición 1.3.1

Sea 𝑆 una superficie parametrizada por φ: 𝐷 ⊂ ℝ2 → ℝ3 . Supongamos


𝜕φ 𝜕φ
que 𝑦 son continuas en (𝑢0 , 𝑣0 ) 𝜖 𝐷.
𝜕𝑢 𝜕𝑣

𝜕φ 𝜕φ
Si 𝑁(𝑢0 , 𝑣0 ) = (𝑢0 , 𝑣0 ) × (𝑢0 , 𝑣0 ) es no nulo, diremos que 𝑆 es
𝜕𝑢 𝜕𝑣

regular en φ(𝑢0 , 𝑣0 ) 𝜖 𝑆.

37
Este caso, definimos el plano tangente a 𝑆 en φ(𝑢0 , 𝑣0 ) = (𝑥0 , 𝑦0 , 𝑧0 ) como

𝜕φ 𝜕φ
el plano generado por los vectores (𝑢0 , 𝑣0 ) 𝑦 (𝑢0 , 𝑣0 ), cuya ecuación
𝜕𝑢 𝜕𝑣

es dada por

𝑁(𝑢0 , 𝑣0 ). (𝑥 − 𝑥0 , 𝑦 − 𝑦0 , 𝑧 − 𝑧0 ) = 0

Una superficie 𝑆 = φ(𝐷) es regular si es regular en todos los puntos.

Considere ahora una superficie parametrizada

φ: 𝐷 ⊂ ℝ2 → ℝ3 ,

φ(𝑢, 𝑣) = (𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣), 𝑧(𝑢, 𝑣)).

Por simplicidad, y sin pérdida de generalidad, suponga que 𝐷 sea un

rectángulo, y considere una partición regular de 𝐷 de orden n de la

siguiente forma:

Para cada 𝑖, 𝑗 ∈ {0,10 … , 𝑛 − 1}, sea 𝑅𝑖𝑗 un rectángulo de vértices:

(𝑢𝑖 , 𝑣𝑗 ), (𝑢𝑖+1 , 𝑣𝑗 ), (𝑢𝑖 , 𝑣𝑗+1 ) 𝑦(𝑢𝑖+1 , 𝑣𝑗+1 ) .

𝜕φ
Para facilitar la notación, denotamos al vector (𝑢𝑖 , 𝑣𝑗 ) por φ𝑢𝑖 , y
𝜕𝑢

𝜕φ
análogamente (𝑢𝑖 , 𝑣𝑗 ) por φ𝑣𝑖 .
𝜕𝑣

Sea ∆𝑢 = 𝑢𝑖+1 − 𝑢𝑖 y ∆𝑣 = 𝑣𝑗+1 − 𝑣𝑗 . De esa forma los vectores

∆𝑢φ𝑢𝑖 𝑦 ∆𝑣φ𝑣𝑖 son tangentes a la superficie en φ(𝑢𝑖 , 𝑣𝑗 ) = (𝑥𝑖𝑗 . 𝑦𝑖𝑗 . 𝑧𝑖𝑗 ), y

ahora esos vectores forman un paralelogramo 𝑃𝑖𝑗 situado en el plano

tangente a la superficie en (𝑥𝑖𝑗 . 𝑦𝑖𝑗 . 𝑧𝑖𝑗 ), (Do Carmo; 1994).

38
Recordando que el área de un paralelogramo determinado por dos

vectores 𝑢 y 𝑣 es ǁ𝑢 × 𝑣ǁ, observe que para 𝑛 suficientemente grande, el

área del paralelogramo 𝑃𝑖𝑗 se aproxima al área de φ(𝑅𝑖𝑗 ). Por tanto, el

área de la superficie es aproximada por

𝑛−1 𝑛−1 𝑛−1 𝑛−1

𝐴𝑛 = ∑ ∑ 𝐴(𝑃𝑖𝑗 ) = ∑ ∑ ǁ φ𝑢𝑖 × φ𝑣𝑖 ǁ∆𝑢∆𝑣, (1.18)


𝑖=0 𝑗=0 𝑖=0 𝑗=0

haciendo 𝑛 → ∞, la sucesión 𝐴𝑛 converge para la integral

𝜕φ 𝜕φ
∫∫ ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣. (1.19)
𝐷 𝜕𝑢 𝜕𝑣

1.3.5 ÁREA DE SUPERFICIE

Definición 1.3.2

Sea 𝑆 una superficie parametrizada por φ(𝑢, 𝑣), (𝑢, 𝑣)𝜖 𝐷. Definimos el

área 𝐴(𝑆) de 𝑆 por la fórmula

𝜕φ 𝜕φ
𝐴(𝑆) = ∫ ∫ ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣 ,
𝐷 𝜕𝑢 𝜕𝑣

Si 𝑆 se descompone por un número finito de superficies,

entonces su área es dada por la suma de estas áreas, esto es

𝐴(𝑆) = ∑ 𝐴(𝑆𝑖 ),
𝑖=1

39
donde

𝑆 = ⋃ 𝑆𝑖 .
𝑖=1

Las integrales de superficie pueden ser tratadas de forma análoga a las

integrales de línea, pues poseen una estrecha relación. En cuanto una

integral de línea es una integral sobre una curva en el espacio, las

integrales de superficie pueden ser interpretadas como una integral sobre

una superficie en el espacio.

Definición 1.3.3

Sea 𝑆 una superficie parametrizada por φ(𝑢, 𝑣), (𝑢, 𝑣)𝜖 𝐷, y 𝑓(𝑥, 𝑦, 𝑧) una
función real continua definida en 𝑆. Definimos la integral de superficie de
𝑓 sobre 𝑆 por

𝜕φ 𝜕φ
∫ ∫ 𝑓𝑑𝑠 = ∫ ∫ 𝑓(𝑥, 𝑦, 𝑧)𝑑𝑠 = ∫ ∫ 𝑓(φ(𝑢, 𝑣))ǁ × ǁ𝑑𝑢𝑑𝑣,
𝑆 𝑆 𝑆 𝜕𝑢 𝜕𝑣

Cuando la superficie 𝑆 es definida explícitamente por una ecuación de la


forma 𝑧 = 𝑔(x, y), donde (𝑥, 𝑦) 𝜖 𝐷, entonces sabemos que

𝑖 𝑗 𝑘
𝜕𝑧
𝜕𝑧 𝜕𝑧 |1 0 (𝑥, 𝑦)| 𝜕𝑔 𝜕𝑔
× = 𝜕𝑥 = 1𝑘 − 𝑗− 𝑖,
𝜕𝑥 𝜕y | 𝜕𝑧 | 𝜕y 𝜕𝑥
0 1 (𝑥, 𝑦)
𝜕y

Tenemos

∫ ∫ 𝑓𝑑𝑠
𝑆

𝜕𝑔 𝜕𝑔
= ∫ ∫ 𝑓(𝑥, 𝑦, 𝑔(𝑥, 𝑦)). √1 + ( (𝑥, 𝑦))2 + ( (𝑥, 𝑦))2 𝑑𝑥𝑑𝑦, (1.20)
𝑆 𝜕𝑥 𝜕𝑦

40
Luego, si 𝑓(𝑥, 𝑦, 𝑧) = 1 sobre 𝑆, la ecuación anterior se reduce a:

𝜕φ 𝜕φ
∫ ∫ 𝑑𝑠 = ∫ ∫ ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣, (1.21)
𝑆 𝐷 𝜕𝑢 𝜕𝑣

que es igual al área de 𝑆, es por esa razón el símbolo 𝑑𝑠 puede ser

interpretado como un elemento de área de superficie, y la integral de

superficie ∫ ∫𝑆 𝑓𝑑𝑠 es llamada la integral de 𝑓 con respecto al elemento

de área 𝑑𝑠, extendida sobre la superficie 𝑆, (Do Carmo, 2008).

Sea 𝑆 una superficie parametrizada, entonces a esta superficie están


asociados dos campos continuos de vectores unitarios 𝑛1 𝑦 𝑛2 :

𝜕φ 𝜕φ
(𝑢, 𝑣) × (𝑢, 𝑣)
𝑛1 (φ(𝑢, 𝑣)) = 𝜕𝑢 𝜕𝑣 , (1.22)
𝜕φ 𝜕φ
ǁ (𝑢, 𝑣) × (𝑢, 𝑣)
𝜕𝑢 𝜕𝑣

𝑛2 (φ(𝑢, 𝑣)) = −𝑛1 (φ(𝑢, 𝑣)). (1.23)

Definición 1.3.4

Sea 𝑆 una superficie parametrizada. Diremos que 𝑆 está orientada si

fijamos sobre ella un campo de vectores normales unitarios de la forma

𝑛1 𝑜 𝑛2. .

Definición 1.3.5

Si 𝐹: 𝑆 ⊂ ℝ3 → ℝ3 es un campo vectorial continuo y 𝑛 uno de los campos

𝑛1 𝑜 𝑛2 , denotamos por 𝐹𝑛 = 𝐹. 𝑛 a la función escalar que a cada punto

de S asocia una componente del campo F en la dirección del vector 𝑛.

41
Definición 1.3.6

Sea 𝐹 un campo vectorial continuo definido en una superficie orientada 𝑆

parametrizada por:

φ(𝑢, 𝑣), (𝑢, 𝑣)𝜖 𝐷 .

Definimos la integral de superficie de 𝐹 sobre 𝑆 por

∫ ∫ 𝐹. 𝑑𝑠 = ∫ ∫ (𝐹. 𝑛)𝑑𝑠 = ∫ ∫ 𝐹𝑛 𝑑𝑠 .
𝑆 𝑆 𝑆

Así mismo, por la definición de integral de superficie de función escalar

obtenemos, para el caso en que 𝑛 = 𝑛1 ,

𝜕φ 𝜕φ
∫ ∫ (𝐹. 𝑛)𝑑𝑠 = ∫ ∫ [𝐹(φ(𝑢, 𝑣)). 𝑛(φ(𝑢, 𝑣))]ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣
𝑆 𝐷 𝜕𝑢 𝜕𝑣

𝜕φ 𝜕φ
= ∫ ∫ [𝐹(φ(𝑢, 𝑣)). ( (𝑢, 𝑣) × (𝑢, 𝑣)] 𝑑𝑢𝑑𝑣.
𝐷 𝜕𝑢 𝜕𝑣

Observación 1.3.1

Si consideramos 𝑛 = 𝑛2 , entonces solo cambiamos el signo de la integral

de superficie anterior.

Supongamos que un campo vectorial continuo 𝐹: 𝑊 ⊂ ℝ3 → ℝ3

represente un campo de velocidad asociado al flujo de un fluido en cada

punto de la región 𝑊. La velocidad de flujo o flujo por unidad de tiempo

por la superficie 𝑆 contenida en 𝑊 es dado por la integral de superficie 𝐹

sobre 𝑆. De hecho, si 𝑆 es plana y 𝐹 es un campo constante, entonces el

42
volumen de un fluido que pasa por 𝑆 en unidades de tiempo es

(𝐹. 𝑛). (area de (𝑆)). Por tanto el flujo es dado por:

𝜙 = (𝐹. 𝑛). (𝑎𝑟𝑒𝑎 𝑑𝑒 (𝑆)). (1.24)

Si 𝑆 es una superficie no plana contenida en 𝑊, la descomposición por


medio de curvas coordenadas de la forma 𝑢 = 𝑐1 , 𝑣 = 𝑐2 , con 𝑐1
constante, y suponemos que 𝐹 es constante en cada parte 𝑆𝑘 de 𝑆
asimismo formada. Aproximando 𝑆 por paralelogramos tangentes
𝜕φ 𝜕φ
determinados por los vectores ∆u y ∆, obtenemos que el flujo por
𝜕𝑢 𝜕𝑣

una parte 𝑆𝑘 𝑑𝑒 𝑆 es aproximadamente

𝜙𝑘 ≈ (𝐹(φ(𝑢𝑘 , 𝑣𝑘 )). 𝑛𝑘 ). (área de (𝑆𝑘 ))

𝜕φ 𝜕φ
≈ 𝐹(φ(𝑢𝑘 , 𝑣𝑘 )). ( 𝜕𝑢 (𝑢𝑘 , 𝑣𝑘 ) × 𝜕𝑣 (𝑢𝑘 , 𝑣𝑘 )) ∆𝑢∆𝑣 , (1.25)

y cuando 𝑛 → ∞ la sucesión de sumas

𝑛
𝜕φ 𝜕φ
∑(𝐹(φ(𝑢𝑘 , 𝑣𝑘 )). ( (𝑢𝑘 , 𝑣𝑘 ) × (𝑢 , 𝑣 )))∆𝑢∆𝑣 , (1.26)
𝜕𝑢 𝜕𝑣 𝑘 𝑘
𝑘=1

Converge para el flujo total de 𝐹 por la superficie 𝐹. Así mismo, el flujo

total 𝜙 puede ser obtenido por la integral de superficie

𝜕φ 𝜕φ
∫ ∫ 𝐹(𝜙(𝑢, 𝑣)). ( × )𝑑𝑢𝑑𝑣 = ∫ ∫ 𝐹. 𝑑𝑠 , (1.27)
𝐷 𝜕𝑢 𝜕𝑣 𝑆

Una pregunta pertinente en el estudio de las integrales de superficie es

ciertamente el comportamiento de una integral cuando cambiamos una

parametrización de superficie en cuestión. Para responder a esta

pregunta, consideremos los siguientes resultados.

43
Definición 1.3.7

Sean 𝜑1 (𝑢, 𝑣), (𝑢, 𝑣) 𝜖𝐷1 y 𝜑2 (𝑠, 𝑡), (𝑠, 𝑡) 𝜖𝐷2 dos parametrizaciones

de una superficie orientada 𝑆. Diremos que 𝜑1 𝑦 𝜑2 son

parametrizaciones equivalentes si existe una biyeccion de clase 𝐶 1 .

𝐺: 𝐷2 ⊂ ℝ2 → 𝐷1 ⊂ ℝ2

(𝑠, 𝑡) → 𝐺(𝑠, 𝑡) = (𝑢, 𝑣) = (𝑢(𝑠, 𝑡), 𝑣(𝑠, 𝑡)),

Tal que 𝜑1 (𝐺(𝐷2 )) = 𝜑2 (𝐷2 ) = 𝑆, esto es,

𝜑2 (𝑠, 𝑡) = 𝜑1 (𝑢(𝑠, 𝑡), 𝑣(𝑠, 𝑡))𝜖𝐷2 .

Definición 1.3.8

Considere una aplicación definida por 𝜑(𝑠, 𝑡) = (𝑢(𝑠, 𝑡), 𝑣(𝑠, 𝑡)), donde

𝑢 𝑦 𝑣 son funciones de un subconjunto abierto 𝑈 ⊂ ℝ2 en ℝ. Definimos el

determinante Jacobiano de la aplicación 𝜑 por

𝜕𝑢 𝜕𝑣
𝜕(𝑢, 𝑣)
= 𝑑𝑒𝑡 ( 𝜕𝑠 𝜕𝑠 ).
𝜕(𝑠, 𝑡) 𝜕𝑢 𝜕𝑣
𝜕𝑡 𝜕𝑡

Teorema 1.3.1

Si 𝜑1 (𝑢, 𝑣) 𝑦 𝜑2 (𝑠, 𝑡) son parametrizaciones equivalentes de una

superficie regular orientada entonces

𝜕(𝑢, 𝑣)
𝑁𝜑2 = 𝑁𝜑1 ,
𝜕(𝑠, 𝑡)

44
donde

𝜕𝜑1 𝜕𝜑1 𝜕𝜑2 𝜕𝜑2


𝑁𝜑1 = × 𝑦 𝑁𝜑2 = × .
𝜕𝑢 𝜕𝑣 𝜕𝑠 𝜕𝑡

Demostración

Si 𝜑1 𝑦 𝜑2 son parametrizaciones equivalentes, entonces existe una

biyeccion dada por la definición (1.3.7) tal que

𝜑2 (𝑠, 𝑡) = 𝜑1 (𝑢(𝑠, 𝑡), 𝑣(𝑠, 𝑡)).

Entonces

𝜕𝜑2 𝜕𝜑1 𝜕𝑢 𝜕𝜑1 𝜕𝑣


= + ,
𝜕𝑠 𝜕𝑢 𝜕𝑠 𝜕𝑣 𝜕𝑠

𝜕𝜑2 𝜕𝜑1 𝜕𝑢 𝜕𝜑1 𝜕𝑣


= + .
𝜕𝑡 𝜕𝑢 𝜕𝑡 𝜕𝑣 𝜕𝑡

Luego

𝜕𝜑2 𝜕𝜑2 𝜕𝜑1 𝜕𝑢 𝜕𝜑1 𝜕𝑣 𝜕𝜑1 𝜕𝑢 𝜕𝜑1 𝜕𝑣


𝑁𝜑2 = 𝑥 =( + )× ( + )=
𝜕𝑠 𝜕𝑡 𝜕𝑢 𝜕𝑠 𝜕𝑣 𝜕𝑠 𝜕𝑢 𝜕𝑡 𝜕𝑣 𝜕𝑡

𝜕𝜑1 𝜕𝑢 𝜕𝜑1 𝜕𝑣 𝜕𝜑 𝜕𝑣 𝜕𝜑 𝜕𝑢
=(
𝜕𝑢 𝜕𝑠
)( 𝜕𝑣 𝜕𝑡
) − ( 𝜕𝑣1 𝜕𝑠 ) ( 𝜕𝑢1 𝜕𝑡 ) =

𝜕𝜑1 𝜕𝜑1 𝜕𝜑1 𝜕𝜑1 𝜕𝑢 𝜕𝑣 𝜕𝑣 𝜕𝑢 𝜕𝜑1 𝜕𝜑1 𝜕(𝑢, 𝑣)


=( − )( − )=( 𝑥 )
𝜕𝑢 𝜕𝑣 𝜕𝑣 𝜕𝑢 𝜕𝑠 𝜕𝑡 𝜕𝑠 𝜕𝑡 𝜕𝑢 𝜕𝑣 𝜕(𝑠, 𝑡)

𝜕(𝑢, 𝑣)
= 𝑁𝜑1 .
𝜕(𝑠, 𝑡)

Teorema 1.3.2

Sean 𝜑1 (𝑢, 𝑣), (𝑢, 𝑣)𝜖𝐷1 y 𝜑2 (𝑠, 𝑡), (𝑠, 𝑡) 𝜖𝐷2 , parametrizaciones

equivalentes de una superficie regular orientada 𝑆.

45
1. Si 𝑓 es una función escalar continua definida en 𝑆, entonces

∫∫ 𝑓𝑑𝑠 = ∫ ∫ 𝑓𝑑𝑠 .
𝜑1(𝐷1 ) 𝜑2 (𝐷2 )

2. Si 𝐹 es un campo vectorial continua definido en 𝑆, entonces

∫∫ (𝐹. 𝑛)𝑑𝑠 = ∫ ∫ (𝐹. 𝑛)𝑑𝑠,


𝜑1(𝐷1 ) 𝜑2 (𝐷2 )

Si los vectores normales 𝑁𝜑1 𝑦 𝑁𝜑2 tienen el mismo sentido en cada

punto de 𝑆, y

∫∫ (𝐹. 𝑛)𝑑𝑠 = − ∫ ∫ (𝐹. 𝑛)𝑑𝑠,


𝜑1(𝐷1 ) 𝜑2 (𝐷2 )

Si los vectores normales 𝑁𝜑1 𝑦 𝑁𝜑2 tienen sentidos opuestos en cada

punto de 𝑆.

Demostración:

1. Por la definición (1.3.3) tenemos

𝜕𝜑1 𝜕𝜑1
∫∫ 𝑓𝑑𝑠 = ∫ ∫ 𝑓(𝜑1 (𝑢, 𝑣)) ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣 ,
𝜑1(𝐷1 ) 𝐷1 𝜕𝑢 𝜕𝑣

Como 𝜑1 𝑦 𝜑2 son parametrizaciones equivalentes, entonces existe una

función dada por la definición (1.3.7) tal que

𝜕𝜑1 𝜕𝜑1
∫ ∫ 𝑓(𝜑1 (𝑢, 𝑣)) ǁ (𝑢, 𝑣) × (𝑢, 𝑣)ǁ𝑑𝑢𝑑𝑣
𝐷1 𝜕𝑢 𝜕𝑣

46
𝜕𝜑1 𝜕𝜑1 𝜕(𝑢, 𝑣)
= ∫ ∫ 𝑓(𝜑1(𝑢(𝑠, 𝑡)), 𝑣(𝑠, 𝑡))) ǁ × ǁ| | 𝑑𝑠𝑑𝑡.
𝐷2 𝜕𝑢 𝜕𝑣 𝜕(𝑠, 𝑡)

Y finalmente por el teorema (1.3.1) obtenemos la igualdad

𝜕𝜑2 𝜕𝜑2
∫ ∫ 𝑓( 𝜑2 (𝑠, 𝑡)) ǁ (𝑠, 𝑡) × (𝑠, 𝑡)ǁ𝑑𝑠𝑑𝑡 = ∫ ∫ 𝑓𝑑𝑠.
𝐷2 𝜕𝑠 𝜕𝑡 𝜑2 (𝐷2 )

2. Por la definición (1.3.6) tenemos

𝜕𝜑1 𝜕𝜑1
∫∫ (𝐹. 𝑛)𝑑𝑠 = ∫ ∫ 𝐹(𝜑1 (𝑢, 𝑣)) . ( 𝑥 )𝑑𝑢𝑑𝑣
𝜑1(𝐷1 ) 𝜕𝑢 𝜕𝑣

𝜕𝜑1 𝜕𝜑1 𝜕(𝑢, 𝑣)


= ∫ ∫ 𝐹(𝜑1 (𝑢(𝑠, 𝑡)), 𝑣(𝑠, 𝑡))) . ( × )| | 𝑑𝑠𝑑𝑡.
𝐷2 𝜕𝑢 𝜕𝑣 𝜕(𝑠, 𝑡)

Por tanto, si 𝑁𝜑1 𝑦 𝑁𝜑2 tienen el mismo sentido, por el teorema

(1.3.1), la integral anterior es igual a

𝜕𝜑2 𝜕𝜑2
∫ ∫ 𝐹(𝜑2 (𝑆, 𝑇)). ( (𝑠, 𝑡) × (𝑠, 𝑡))𝑑𝑠𝑑𝑡 = ∫ ∫ (𝐹. 𝑛)𝑑𝑠.
𝐷2 𝜕𝑠 𝜕𝑡 𝜑2 (𝐷2 )

Y si 𝑁𝜑1 𝑦 𝑁𝜑2 poseen sentidos opuestos, entonces

𝜕𝜑1 𝜕𝜑1 𝜕(𝑢, 𝑣)


∫ ∫ 𝐹(𝜑1 (𝑢(𝑠, 𝑡)), 𝑣(𝑠, 𝑡))). ( × )| | 𝑑𝑠𝑑𝑡
𝐷2 𝜕𝑢 𝜕𝑣 𝜕(𝑠, 𝑡)

𝜕𝜑2 𝜕𝜑2
= ∫ ∫ −𝐹(𝜑2 (𝑠, 𝑡)) . ( (𝑠, 𝑡) × (𝑠, 𝑡)) 𝑑𝑠𝑑𝑡
𝐷2 𝜕𝑠 𝜕𝑡

= −∫∫ (𝐹. 𝑛)𝑑𝑠.


𝜑2 (𝐷2 )

47
Definición 1.3.9

Considere un campo vectorial 𝐹 = (𝐹1 , 𝐹2 , 𝐹3 ) con derivadas parciales

definidas en un subconjunto abierto de ℝ3 . Definimos el campo vectorial

rotacional de 𝐹 por

𝑖 𝑗 𝑘
𝜕 𝜕 𝜕 𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹
𝑟𝑜𝑡𝐹 = ∇ × 𝐹 = | | = ( 3 − 2 , 1 − 3 , 2 − 1 ).
𝜕𝑥 𝜕𝑦 𝜕𝑧 𝜕𝑦 𝜕𝑧 𝜕𝑧 𝜕𝑥 𝜕𝑥 𝜕𝑦
𝐹1 𝐹2 𝐹3

Definición 1.3.10

Sea S una superficie parametrizada por 𝜑(𝑢, 𝑣), 𝑐𝑜𝑛 (𝑢, 𝑣) 𝜖 𝐷. El borde

𝜕𝑆 𝑑𝑒 𝑆 es la curva 𝑆 correspondiente por 𝜑 a la frontera 𝐷.

Teorema 1.3.3 (Teorema de Stokes)

Sea 𝑆 una superficie orientada, parametrizada por 𝜑(𝑢, 𝑣), (𝑢, 𝑣) 𝜖 𝐷 ,

donde 𝐷 es una región cerrada del plano 𝑢𝑣, acotada por una curva 𝐶 1

por partes, y 𝜑. Una función de clase 𝐶 2 en un subconjunto abierto de ℝ2

contenido en 𝐷 . Si 𝐹 = (𝐹1 , 𝐹2 , 𝐹3 ) es un campo vectorial de clase 𝐶 1

definido en un subconjunto abierto de ℝ3 que contiene 𝑆, cuyo borde 𝜕𝑆

está orientado positivamente, entonces

∫ ∫ (𝑟𝑜𝑡𝐹. 𝑛)𝑑𝑠 = ∫ 𝐹. 𝑑𝑟.


𝑆 𝜕𝑆

Demostración:

Consideremos 𝑆 parametrizada por

48
𝜑(𝑢, 𝑣) = (𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣), 𝑧(𝑢, 𝑣)), 𝑐𝑜𝑛 (𝑢, 𝑣)𝜖 𝐷,

y es ya orientada con el campo de vectores normales

𝜕φ 𝜕φ
×
𝑛 = 𝜕𝑢 𝜕𝑣 ,
𝜕φ 𝜕φ
ǁ
𝜕𝑢
× 𝜕𝑣
ǁ

donde,

𝜕φ 𝜕φ 𝜕(𝑦, 𝑧) 𝜕(𝑧, 𝑥) 𝜕(𝑥, 𝑦)


× =( , , ).
𝜕𝑢 𝜕𝑣 𝜕(𝑢, 𝑣) 𝜕(𝑢, 𝑣) 𝜕(𝑢, 𝑣)

Por la fórmula de integral de superficie tenemos:

∬ (𝑟𝑜𝑡𝐹. 𝑛)𝑑𝑠
𝑆

𝜕𝐹3 𝜕𝐹2 𝜕(𝑦, 𝑧) 𝜕𝐹1 𝜕𝐹3 𝜕(𝑧, 𝑥) 𝜕𝐹2 𝜕𝐹1 𝜕(𝑥, 𝑦)


= ∬ [( − ) +( − ) +( − ) ] 𝑑𝑢𝑑𝑣,
𝐷 𝜕𝑦 𝜕𝑧 𝜕(𝑢, 𝑣) 𝜕𝑧 𝜕𝑥 𝜕(𝑢, 𝑣) 𝜕𝑥 𝜕𝑦 𝜕(𝑢, 𝑣)

y para completar la demostración basta verificar que

𝜕𝐹1 𝜕(𝑧, 𝑥) 𝜕𝐹1 𝜕(𝑥, 𝑦)


∫ 𝐹1 𝑑𝑥 = ∫ ∫ [ − ]𝑑𝑢𝑑𝑣 ,
𝜕𝑆 𝐷 𝜕𝑧 𝜕(𝑢, 𝑣) 𝜕𝑦 𝜕(𝑢, 𝑣)

−𝜕𝐹2 𝜕(𝑦, 𝑧) 𝜕𝐹2 𝜕(𝑥, 𝑦)


∫ 𝐹2 𝑑𝑦 = ∫ ∫ [ + ]𝑑𝑢𝑑𝑣 , 𝑦
𝜕𝑆 𝐷 𝜕𝑧 𝜕(𝑢, 𝑣) 𝜕𝑥 𝜕(𝑢, 𝑣)

𝜕𝐹3 𝜕(𝑦, 𝑧) 𝜕𝐹3 𝜕(𝑧, 𝑥)


∫ 𝐹3 𝑑𝑧 = ∫ ∫ [ − ]𝑑𝑢𝑑𝑣,
𝜕𝑆 𝐷 𝜕𝑦 𝜕(𝑢, 𝑣) 𝜕𝑥 𝜕(𝑢, 𝑣)

49
Pues sumando estas tres ecuaciones obtenemos el teorema de stokes.

Probaremos la primera identidad, pues las demás son análogas (Lima;

1970).

Supongamos que ℎ(𝑡) = (𝑢(𝑡), 𝑣(𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏 es una 𝑆 parametrización

de la frontera de 𝐷 , orientada de modo que 𝜑(ℎ(𝑡)) sea una

parametrizacion del borde 𝜕𝑆 de 𝑆, orientado positivamente. Asimismo,

𝑏
𝑑
∫ 𝐹1 𝑑𝑥 = ∫ [𝐹1 (𝜑(ℎ(𝑡))) (𝑥 (𝜑(ℎ(𝑡)))] d𝑡 =
𝜕𝑆 𝑎 𝑑𝑡

𝑏
𝜕𝑥 𝜕𝑥
∫ [ 𝐹1 (𝜑(ℎ(𝑡)))( (ℎ(𝑡))𝑢′ (𝑡) + (ℎ(𝑡))𝑣 ′ (𝑡))]d𝑡 =
𝑎 𝜕𝑢 𝜕𝑣

𝜕𝑥 𝜕𝑥
∫ 𝐹1 (𝜑(𝑢, 𝑣))( (𝑢, 𝑣)𝑑𝑢 + (𝑢, 𝑣)𝑑𝑣) =
𝜕𝐷 𝜕𝑢 𝜕𝑣

𝜕𝑥 𝜕𝑥
∫ 𝐹1 (𝜑(𝑢, 𝑣)) (𝑢, 𝑣)𝑑𝑢 + 𝐹1 (𝜑(𝑢, 𝑣)) (𝑢, 𝑣)𝑑𝑣.
𝜕𝐷 𝜕𝑢 𝜕𝑣

Como 𝜑 es de clase 𝐶 2 , podemos aplicar el teorema de Green a esta

última integral, obteniendo

𝜕 𝜕𝑥 𝜕 𝜕𝑥
∫ 𝐹1 𝑑𝑥 = ∫ ∫ [ (𝐹1 ( 𝜑(𝑢, 𝑣)) ) − (𝐹1 (𝜑(𝑢, 𝑣)) (𝑢, 𝑣))]𝑑𝑢𝑑𝑣.
𝜕𝑆 𝐷 𝜕𝑢 𝜕𝑣 𝜕𝑣 𝜕𝑢

pero,

𝜕 𝜕𝑥 𝜕 𝜕𝑥
((𝐹1 °𝜑) ) − ((𝐹1 °𝜑) ) =
𝜕𝑢 𝜕𝑣 𝜕𝑣 𝜕𝑢

𝜕 𝜕𝑥 𝜕2 𝑥 𝜕 𝜕𝑥 𝜕2 𝑥
= 𝜕𝑢 (𝐹1 °𝜑) 𝜕𝑣 + (𝐹1 °𝜑) 𝜕𝑢𝜕𝑣 − 𝜕𝑣 (𝐹1 °𝜑) 𝜕𝑢 − (𝐹1 °𝜑) 𝜕𝑣𝜕𝑢 =

50
𝜕 𝜕𝑥 𝜕 𝜕𝑥
(𝐹1 °𝜑) − (𝐹1 °𝜑) =
𝜕𝑢 𝜕𝑣 𝜕𝑣 𝜕𝑢

𝜕𝐹1 𝜕𝑥 𝜕𝐹1 𝜕y 𝜕𝐹1 𝜕z 𝜕𝑥 𝜕𝐹1 𝜕𝑥 𝜕𝐹1 𝜕𝑦 𝜕𝐹1 𝜕z 𝜕𝑥


( + + ) −( + + ) =
𝜕𝑥 𝜕𝑢 𝜕𝑦 𝜕𝑢 𝜕𝑧 𝜕𝑢 𝜕𝑣 𝜕𝑥 𝜕𝑣 𝜕𝑦 𝜕𝑣 𝜕𝑧 𝜕𝑣 𝜕𝑢

𝜕𝐹1 𝜕𝑥 𝜕𝑦 𝜕𝑥 𝜕𝑦 𝜕𝐹1 𝜕𝑥 𝜕z 𝜕𝑥 𝜕𝑧
− (𝜕𝑢 𝜕𝑣 − 𝜕𝑣 𝜕𝑢) + (𝜕𝑣 𝜕𝑢 − 𝜕𝑢 𝜕𝑣) =
𝜕𝑦 𝜕𝑧

𝜕𝐹1 𝜕(𝑥,𝑦) 𝜕𝐹1 𝜕(𝑧,𝑥)


− + ,
𝜕𝑦 𝜕(𝑢,𝑣) 𝜕𝑧 𝜕(𝑢,𝑣)

luego,

𝜕𝐹1 𝜕(𝑧, 𝑥) 𝜕𝐹1 𝜕(𝑥, 𝑦)


∫ 𝐹1 𝑥 = ∫ ∫ [ − ]𝑑𝑢𝑑𝑣 ,
𝜕𝑆 𝐷 𝜕𝑧 𝜕(𝑢, 𝑣) 𝜕𝑦 𝜕(𝑢, 𝑣)

Lo cual garantiza la validez de la primera identidad. De forma similar se

prueban las otras dos, concluyendo la demostración. Observe que la

región 𝑆 del teorema anterior es una región del plano 𝑥𝑦, entonces 𝑛 =

(0,0,1), así mismo obtenemos el teorema de Green, esto es,

𝜕𝐹2 𝜕𝐹1
∫ 𝐹. 𝑑𝑟 = ∫ ∫ (𝑟𝑜𝑡𝐹. 𝑛). 𝑑𝑟 = ∫ ∫ ( − ) 𝑑𝑥𝑑𝑦.
𝜕𝑆 𝑆 𝑆 𝜕𝑥 𝜕𝑦

Como analizamos, el teorema de Stokes expresa una relación entre una

integral de superficie y una integral de línea sobre la curva que es el borde

de la superficie. El siguiente teorema que iremos a analizar es el teorema

de Divergencia, o teorema de Gauss, que relaciona una integral triple con

una integral de superficie.

51
1.3.6 TEOREMA DE GAUSS O DE LA DIVERGENCIA

Definición 1.3.11

Sea 𝑊 una región acotada en ℝ3 , teniendo como frontera una superficie

𝜕𝑊. Diremos que 𝜕𝑊 esta orientada positivamente si el vector normal en

cada punto de 𝜕𝑊 señala para afuera de 𝑊.

Definición 1.3.12

Sea 𝐹(𝑥, 𝑦, 𝑧) = (𝐹1 (𝑥, 𝑦, 𝑧), 𝐹2 (𝑥, 𝑦, 𝑧), 𝐹3 (𝑥, 𝑦, 𝑧)) un campo vectorial de

clase 𝐶 1 definido en un subconjunto de ℝ3 . El divergente de F, denotado

por 𝑑𝑖𝑣𝐹. Es definido por

𝜕𝐹1 𝜕𝐹2 𝜕𝐹3


𝑑𝑖𝑣𝐹(𝑥, 𝑦, 𝑧) = (𝑥, 𝑦, 𝑧) + (𝑥, 𝑦, 𝑧) + (𝑥, 𝑦, 𝑧).
𝜕𝑥 𝜕𝑦 𝜕𝑧

Teorema 1.3.4 (Teorema de Gauss o de la Divergencia)

Sea 𝑊 una región cerrada y acotada de ℝ3 cuya frontera 𝜕𝑊 es una

superficie orientada positivamente. Si 𝐹 es un campo vectorial de clase

𝐶 1 en un subconjunto abierto de ℝ3 que contiene 𝑊, entonces

∫ ∫ (𝐹. 𝑛)𝑑𝑠 = ∭ 𝑑𝑖𝑣𝐹𝑑𝑥𝑑𝑦𝑑𝑧.


𝜕𝑊 𝑊

Demostración:

Supongamos que 𝑊 sea una región simple. Si 𝐹 = (𝐹1 , 𝐹2 , 𝐹3 ), se puede

escribir

52
∭ 𝑑𝑖𝑣𝐹𝑑𝑥𝑑𝑦𝑑𝑧
𝑊

𝜕𝐹1 𝜕𝐹2
=∭ 𝑑𝑥𝑑𝑦𝑑𝑧 + ∭ 𝑑𝑥𝑑𝑦𝑑𝑧
𝑊 𝜕𝑥 𝑊 𝜕𝑦

𝜕𝐹3
+∭ 𝑑𝑥𝑑𝑦𝑑𝑧 ,
𝑊 𝜕𝑧

y por otro lado,

∬ (𝐹. 𝑛)𝑑𝑠 = ∬ [(𝐹1 , 0,0). 𝑛]ds + ∬ [(0, 𝐹2 , 0). 𝑛] 𝑑𝑠


𝜕𝑊 𝜕𝑊 𝜕𝑊

+ ∬ [(0,0, 𝐹3 ). 𝑛]ds,
𝜕𝑊

Por tanto, para validar el teorema, basta probar las siguientes

identidades

𝜕𝐹1
∭ 𝑑𝑥𝑑𝑦𝑑𝑧 = ∬ [(𝐹1 , 0, 0). 𝑛]𝑑𝑠.
𝑊 𝜕𝑥 𝜕𝑊

𝜕𝐹2
∭ 𝑑𝑥𝑑𝑦𝑑𝑧 = ∬ [(0, 𝐹2 , 0). 𝑛]𝑑𝑠.
𝑊 𝜕𝑦 𝜕𝑊

𝜕𝐹3
∭ 𝑑𝑥𝑑𝑦𝑑𝑧 = ∬ [(0,0, 𝐹3 ). 𝑛]𝑑𝑠.
𝑊 𝜕𝑧 𝜕𝑊

Sin embargo, probaremos solo la última identidad, pues las demás se

realizan de manera similar. Por tanto describiremos 𝑊 como una región

de tipo 𝐼.

𝑊 = {(𝑥, 𝑦, 𝑧) 𝜖 ℝ3 / 𝑓1 (𝑥, 𝑦) ≤ 𝑧 ≤ 𝑓2 (𝑥, 𝑦), (𝑥, 𝑦)𝜖𝐷}.

53
Esta región es acotada inferiormente por una superficie 𝑆1 de ecuación

𝑧 = 𝑓1 (𝑥, 𝑦) , con (𝑥, 𝑦)𝜖𝐷 y acotada superiormente por una superficie 𝑆2

de ecuación 𝑧 = 𝑓2 (𝑥, 𝑦), con (𝑥, 𝑦)𝜖𝐷. Posiblemente esta región también

es acotada por una porción cilindro generada por una recta paralela al eje

𝑧 a lo largo de la frontera 𝐷, que denotaremos por 𝑆3 . Así mismo,

𝑓2 (𝑥,𝑦)
𝜕𝐹3 𝜕𝐹3
∭ 𝑑𝑥𝑑𝑦𝑑𝑧 = ∬ [∫ 𝑑𝑧]𝑑𝑥𝑑𝑦
𝑊 𝜕𝑧 𝐷 𝑓1 (𝑥,𝑦) 𝜕𝑧

= ∬ [𝐹3 (𝑥, 𝑦, 𝑓2 (𝑥, 𝑦)) − 𝐹3 (𝑥, 𝑦, 𝑓1 (𝑥, 𝑦))]𝑑𝑥𝑑𝑦.


𝐷

Y además

∬ [(0,0, 𝐹3 ). 𝑛]ds = ∑ ∬ [(0,0, 𝐹3 ). 𝑛]𝑑𝑠,


𝜕𝑊 𝑖=1 𝑆𝑖

y como en 𝑆3 el campo de vectores normales unitarios es paralelo al plano

𝑥𝑦, entonces (0,0, 𝐹3 ). 𝑛 = 0, lo que conduce a

∬ [(0,0, 𝐹3 ). 𝑛]d𝑠 = 0.
𝑆3

Observe ahora que en 𝑆2 el campo de vectores normales señalando a 𝑊

𝜕𝑓 𝜕𝑓
es dado por 𝑁2 = (− 𝜕𝑥2 , − 𝜕𝑦2 , −1) , ya en 𝑆1 el campo de vectores

𝜕𝑓 𝜕𝑓
normales señalando a 𝑊 es dado por 𝑁1 = (− 𝜕𝑥1 , − 𝜕𝑦1 , −1). Por tanto,

54
∬ [(0,0, 𝐹3 ). 𝑛]ds = ∬ [(0,0, 𝐹3 (𝑥, 𝑦, 𝑓2 (𝑥, 𝑦))) . (
𝑆2 𝐷

𝜕𝑓2 𝜕𝑓2
− ,− , −1)]𝑑𝑥𝑑𝑦
𝜕𝑥 𝜕𝑦

= ∬ 𝐹3 (𝑥, 𝑦, 𝑓2 (𝑥, 𝑦)) 𝑑𝑥𝑑𝑦.


𝐷

Y además

𝜕𝑓1 𝜕𝑓1
∬ [(0,0, 𝐹3 ). 𝑛]ds = ∬ [(0,0, 𝐹3 (𝑥, 𝑦, 𝑓2 (𝑥, 𝑦))) . (− ,− , −1)] 𝑑𝑥𝑑𝑦
𝑆1 𝐷 𝜕𝑥 𝜕𝑦

= ∬ − 𝐹3 (𝑥, 𝑦, 𝑓1 (𝑥, 𝑦))𝑑𝑥𝑑𝑦.


𝐷

Así mismo,

∬ [(0,0, 𝐹3 ). 𝑛]ds = ∬ [𝐹3 (𝑥, 𝑦, 𝑓2 (𝑥, 𝑦)) − 𝐹3 (𝑥, 𝑦, 𝑓1 (𝑥, 𝑦))]𝑑𝑥𝑑𝑦,


𝜕𝑊 𝐷

Lo que garantiza la validez de la identidad.

Para completar la demostración, observe que si 𝑊 no es una región

simple, entonces podemos descomponer 𝑊 en una unión finita de

regiones simples

𝑛
𝑊=⋃ 𝑊𝑖 ,
𝑖=1

y usando el teorema de Gauss en cada región simple, obtenemos

∭ 𝑑𝑖𝑣𝐹𝑑𝑥𝑑𝑦𝑑𝑧 = ∑ ∬ (𝐹. 𝑛)𝑑𝑠,


𝑊 𝑖=1 𝜕𝑊𝑖

55
y como los vectores normales exteriores a la frontera común de dos

regiones simples son opuestos, entonces las integrales de superficie

correspondientes son simétricas, y por tanto se cancelan. Así mismo,

∑∬ (𝐹. 𝑛)𝑑𝑠. = ∬ (𝐹. 𝑛)𝑑𝑠.


𝑖=1 𝜕𝑊𝑖 𝜕𝑊

56
CAPITULO II

FORMAS DIFERENCIALES

2.1 FORMAS ALTERNADAS

En esta parte adaptaremos varios conceptos expuestos sobre la base de

algunos resultados ya obtenidos.

Definición 2.1.1

Sea 𝑉 un ℝ -espacio vectorial, y denotamos por 𝑉 𝑘 el producto

cartesiano 𝑉x … x𝑉. Una función 𝑇: 𝑉 𝑘 → ℝ se denomina multi-lineal si

para cada 𝑖, con 1 ≤ 𝑖 ≤ 𝑘, se verifica

𝑇(𝑣1 , … , 𝑣𝑖 + 𝑣𝑖′ , … , 𝑣𝑘 ) = 𝑇(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑘 ) + 𝑇(𝑣1 , … , 𝑣𝑖′ , … , 𝑣𝑘 );

𝑇(𝑣1 , … , 𝑎𝑣𝑖 , … , 𝑣𝑘 ) = 𝑎𝑇(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑘 ).

Una función multi − lineal 𝑇: 𝑉 𝑘 → ℝ se denomina un 𝑘 − tensor o

tensor de orden 𝑘 y el conjunto de todos los tensores de orden k, que

denotaremos por Ԏ𝑘 (𝑉) , será un espacio vectorial definido por las

siguientes operaciones, para 𝑆, 𝑇 𝜖 Ԏ𝑘 (𝑉),

(𝑆 + 𝑇)(𝑣1 , … , 𝑣𝑘 ) = 𝑆(𝑣1 , … , 𝑣𝑘 ) + 𝑇(𝑣1 , … , 𝑣𝑘 );

(𝑎𝑆)(𝑣1 , … , 𝑣𝑘 ) = 𝑎. 𝑆(𝑣1 , … , 𝑣𝑘 ), para 𝑎𝜖ℝ

Definición 2.1.2

Considerando 𝑆 𝜖 Ԏ𝑘 (𝑉) y 𝑇 𝜖 Ԏ𝑙 (𝑉), definimos el producto tensorial

𝑆 ⊗ 𝑇 ϵ Ԏ𝑘+𝑙 (𝑉) por:

𝑆 ⊗ 𝑇(𝑣1 , … , 𝑣𝑘 , 𝑣𝑘+1 , … , 𝑣𝑘+1 ) = 𝑆(𝑣1 , … , 𝑣𝑘 ). 𝑇(𝑣𝑘+1 , … , 𝑣𝑘+1 ).

57
El producto tensorial posee las siguientes propiedades:

1. (𝑆1 + 𝑆2 ) ⊗ 𝑇 =𝑆1⊗ 𝑇 +𝑆2 ⊗ 𝑇.

2. 𝑆 ⊗(𝑇1 + 𝑇2 )= 𝑆 ⊗𝑇1 + 𝑆 ⊗𝑇2 .

3. (𝑎𝑆) ⊗ 𝑇 = 𝑆 ⊗ (𝑎𝑇) = a(𝑆 ⊗ 𝑇).

4. (𝑆 ⊗ 𝑇) ⊗𝑈= 𝑆 ⊗ (𝑇 ⊗𝑈).

Teorema 2.1.1

Sea 𝛽= {𝑣1 , … , 𝑣𝑘 } una base de 𝑉, y 𝛽 ∗ {𝜑1 , … , 𝜑𝑛 } la base dual, donde

𝜑𝑖 (𝑣𝑗 ) = 𝛿𝑖𝑗 . Entonces el conjunto de todos los productos tensoriales de 𝑘

factores

𝜑 𝑖1 ⊗ … ⊗ 𝜑 𝑖𝑘 . con 1 ≤ 𝑖1 , … , 𝑖𝑘 ≤ 𝑛,

es una base para Ԏ𝑘 (𝑉), y además dim(Ԏ𝑘 (𝑉)) = 𝑛𝑘 .

Demostración:

Primeramente, observamos que

𝜑𝑖1 ⊗ … ⊗ 𝜑𝑖𝑘 (𝑣𝑗1 … 𝑣𝑗𝑘 ) = 𝛿𝑖1 𝑗1 … 𝛿𝑖𝑘𝑗𝑘 ,

ahora, si 𝑤1 , … , 𝑤𝑘 𝜖 𝑉, con
𝑛
𝑤𝑖 = ∑ 𝑎𝑖𝑗 𝑣𝑗, 𝑎𝑖𝑗 𝜖 ℝ y 𝑇𝜖 Ԏ𝑘 (𝑉)
𝑗=1

Entonces
𝑛

𝑇(𝑤1,… 𝑤𝑘 ) = ∑ 𝑎1𝑗1 , … , 𝑎𝑘𝑗𝑘 𝑇( 𝑣𝑗1 , … , 𝑣𝑗𝑘 )


𝑗1…𝑗𝑘=1

= ∑ 𝑇(𝑣𝑖1 , … , 𝑣𝑖𝑘 ). 𝜑𝑖1 ⊗ … ⊗ 𝜑𝑖𝑘 (𝑤1 , … , 𝑤𝑘 )


𝑖1 …𝑖𝑘 =1

58
así mismo
𝑛

𝑇 = ∑ 𝑇( 𝑣𝑖1 … 𝑣𝑖𝑘 ). 𝜑𝑖1 ⊗ … ⊗ 𝜑𝑖𝑘 .


𝑖1 …𝑖𝑘 =1

y por tanto

𝜑𝑖1 , … , 𝜑𝑖𝑘 generan Ԏ𝑘 (𝑉).

Supongamos ahora que existen números 𝑎𝑖1 …𝑖𝑘 tal que

∑ 𝑎𝑖1 …𝑖𝑘 . 𝜑𝑖1 ⊗ … ⊗ 𝜑𝑖𝑘 = 0.


𝑖1 ,…𝑖𝑘 =1

Aplicando a ambos miembros de la ecuación anterior a (𝑣𝑖1 , … , 𝑣𝑖𝑘 )

obtenemos que 𝑎𝑗1 ,…,𝑗𝑘 = 0. Por tanto 𝜑𝑖1 ⊗ … ⊗ 𝜑𝑖𝑘 son linealmente

independientes. Se sigue también que

dim(Ԏ𝑘 (𝑉)) = 𝑛𝑘 .

Definición 2.1.3

Una permutación de 𝑋 es una biyeccion σ: 𝑋 → 𝑋 , ósea, σ ϵ ℱ(𝑋), donde

ℱ(𝑋) denota el conjunto de aplicaciones de 𝑋 en si mismo, de forma que

para cada 𝑦 𝜖 𝑋 existe un único 𝑥 𝜖 𝑋 con σ(𝑥) = 𝑦. Por ser una biyeccion,

cada permutación σ admite una inversa σ−1 , definida por la condición

σ−1 (𝑦) = 𝑥 ⇔ σ(𝑥) = 𝑦,

y por supuesto, σ−1 𝑜 σ = σ 𝑜 σ−1 = 𝐼𝑑.

Observación 2.1.1

El conjunto de permutaciones de 𝑋 dotado de la operación de la

composición de las funciones de formar un grupo, llamado el grupo de

permutaciones de 𝑋, denotado por 𝑆(𝑋), y como sabemos, si 𝑋 es un

59
conjunto infinito con 𝑘 elementos, entonces el número de permutaciones

de 𝑋 es 𝑘!, esto es, el número de elementos de 𝑆(𝑋) es 𝑘!. Por tanto,

siendo el conjunto 𝐼𝑘 = {1, … , 𝑘} el conjunto de los enteros de 1 a 𝑘 ,

entonces denotamos 𝑆(𝐼𝑘 ) por 𝑆𝑘 , tenemos que |𝑆𝑘 | = 𝑘!.

Definición 2.1.4

Una permutación τ ϵ 𝑆𝑘 , 𝑛 ≥ 2, se llama transposición cuando existe

enteros 𝑎 ≠ 𝑏 en 𝐼𝑛 tal que

τ(𝑎) = b, τ(𝑏) = 𝑎 y τ(𝑖) = 𝑖 para 𝑖 ∉ {𝑎, 𝑏},

Cuando τ es una transposición, se tiene τ2 = 𝐼𝑑, es decir, τ−1 = τ.

Teorema 2.1.2

Toda permutación σ 𝜖 𝑆𝑚 puede ser escrita como un producto

σ = τ1 … τ𝑘 de transposiciones.

Demostracion

Hacemos por inducción sobre 𝑚.

Para 𝑚 = 2 el resultado es obvio para cualquier permutación σ 𝜖 𝑆2.

Supongamos entonces que el resultado se muestra para 𝑚 − 1, con 𝑚 >

2, es decir, cualquier permutación σ 𝜖 𝑆𝑚−1 es escrita como un producto

de transposiciones. Tenemos asimismo que, si por si acaso, σ(𝑚) =

𝑚, entonces la restricción de σ a 𝐼𝑚−1 , σ′ , es una permutación, y por la

hipótesis de inducción tenemos que σ′ = σ|𝐼𝑚−1 y tal que existen

transposiciones τ1′ … τ′𝑘 𝜖 𝑆𝑚−1 tales que σ′ = τ1′ … τ′𝑘 y como cada

transposición τ′𝑖 𝜖 𝑆𝑚−1 , se extiende hasta una transposición τ𝑖 𝜖 𝑆𝑚 , con

τ𝑖 , entonces tenemos que σ = τ1 … τ𝑘 .

60
Sin embargo para σ(𝑚) = 𝑛 < 𝑚, basta considerar una transposición

τ ϵ 𝑆𝑚 , tal que 𝜏(𝑛) = 𝑚, y así mismo tenemos que τσ(𝑚) = 𝑚, y por tanto

τσ = τ1 … τ𝑘 , y el hecho de que τ = τ−1 , se sigue que σ = ττ1 … τ𝑘 .

De hecho, tal representación de una transposición no es única, esto es,

para una permutación dada pueden existir varias formas de representarla

como un producto de transposiciones. Sin embargo afirmamos que la

prioridad de 𝑘 es única, o sea, siendo σ = τ1 … τ𝑘 , donde 𝑘 es par,

entonces cualquier otra representación será formada por un producto de

𝑛 factores de transposiciones, con 𝑛 también par. Eso nos permite la

siguiente definición.

Definición 2.1.5

Diremos que una permutación σ 𝜖 𝑆𝑘 es par cuando es el producto de un

número par de transposiciones, e impar en caso contrario. Usaremos el

símbolo 𝑠𝑔𝑛(σ) para representar el signo, o la paridad de la permutación:

𝑠𝑔𝑛(σ) = 1, si σ es una permutación par y 𝑠𝑔𝑛(σ) = −1, si σ es impar.

En forma resumida tenemos

1 𝑠𝑖 σ 𝑒𝑠 𝑝𝑎𝑟
𝑠𝑔𝑛(σ) = { .
−1 𝑠𝑖 σ 𝑒𝑠 𝑖𝑚𝑝𝑎𝑟

Observación 2.1.2

Notemos que, siendo σ ϵ 𝜌 dos permutaciones, entonces 𝑠𝑔𝑛(σ𝜌) =

sgn(σ)𝑠𝑔𝑛(𝜌), y en particular, 𝑠𝑔𝑛(σ−1 ) = 𝑠𝑔𝑛(σ). Además, cuando τ es

una transposición, entonces 𝑠𝑔𝑛(τ) = −1.

61
Definición 2.1.6

Sea 𝜔 𝜖 Ԏ𝑘 (𝑉) un tensor de orden 𝑘. 𝜔 se llama alternado si, para todo

𝑣1 , … , 𝑣𝑘 𝜖 𝑉, se tiene

ω (𝑣1 , … , 𝑣𝑖 ,…,𝑣𝑗 , … , 𝑣𝑘 ) = −𝜔( 𝑣1 , … , 𝑣𝑗 , …,𝑣𝑖 , … , 𝑣𝑘 ).

Teorema 2.1.3

El conjunto de todos los tensores de orden 𝑘 alternados, denotado por

Ʌ𝑘 (𝑉), es un espacio vectorial de Ԏ𝑘 (𝑉) .

Demostración:

Sean ω , ɳ 𝜖 Ԏ𝑘 (𝑉), 𝑣1…. 𝑣𝑘 𝜖 𝑉 𝑦 𝑎 𝜖 ℝ, entonces

(𝑎. ω + ɳ )(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 ) =

𝑎. ω(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 ) + ɳ (𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 )

= (−1). 𝑎. ω(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 ) − ɳ(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 )

= (−1). 𝑎[ω(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 ) + ɳ(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 )] =

= −𝑎(ω + ɳ)(𝑣1 , … , 𝑣𝑖 , … , 𝑣𝑗 , … , 𝑣𝑘 ).

Definición 2.1.7

Sea 𝑇 𝜖 Ԏ𝑘 (𝑉). Definimos 𝐴𝑙𝑡(𝑇) por

1
𝐴𝑙𝑡(𝑇)(𝑣1…. 𝑣𝑘 ) = ∑ 𝑠𝑔𝑛(𝜎). 𝑇(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) ).
𝑘!
𝜎𝜖𝑆𝑘

Teorema 2.1.4

Si 𝜔 𝜖 Ԏ𝑘 (𝑉), entonces 𝐴𝑙𝑡(𝜔) 𝜖 Ʌ𝑘 (𝑉).

Demostración:

Sea τ una transposición de 𝑖 𝑦 𝑗. Si 𝜎 𝜖 𝑆𝑘 , sea 𝜎 ′ = 𝜎. τ, entonces,

62
𝐴𝑙𝑡(𝜔)(𝑣1 , … , 𝑣𝑗 , … , 𝑣𝑖 , … , 𝑣𝑛 )

1
= ∑ 𝑠𝑔𝑛(𝜎). 𝜔(𝑣𝜎(1) , … 𝑣𝜎(𝑗) , … , 𝑣𝜎(𝑖) , … , 𝑣𝜎(𝑘) )
𝑘!
𝜎𝜖𝑆𝑘

1
= ∑ 𝑠𝑔𝑛(𝜎). 𝜔(𝑣𝜎′ (1) , … 𝑣𝜎′ (𝑗) , … 𝑣𝜎′ (𝑖) , … , 𝑣𝜎′ (𝑘) )
𝑘!
𝜎𝜖𝑆𝑘

1
= ∑ −𝑠𝑔𝑛(𝜎 ′ ). 𝜔(𝑣𝜎′ (1) , … , 𝑣𝜎′ (𝑘) ) = − 𝐴𝑙𝑡(𝜔)(𝑣1…. 𝑣𝑛 )
𝑘! ′
𝜎 𝜖𝑆𝑘

Teorema 2.1.5

Si 𝜔 𝜖 Ʌ𝑘 (𝑉), entonces 𝐴𝑙𝑡(𝜔) = 𝜔.

Demostración:

Considere una transposición τ de 𝑖 𝑦 𝑗 y 𝜔 𝜖 Ʌ𝑘 (𝑉). observe que

𝜔(𝑣τ(1) , … , 𝑣τ(𝑘) ) = 𝑠𝑔𝑛(τ). ω(𝑣1 , … , 𝑣𝑘 ).

El hecho de que cada permutación es un producto de transposiciones, se

sigue que

1
𝐴𝑙𝑡(𝜔)(𝑣1 , … , 𝑣𝑘 ) = ∑ 𝑠𝑔𝑛(𝜎). 𝜔(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) )
𝑘!
𝜎𝜖𝑆𝑘

1
= ∑ 𝑠𝑔𝑛(𝜎). 𝑠𝑔𝑛(𝜎). 𝜔(𝑣1 , … , 𝑣𝑘 ) = 𝜔(𝑣1 , … , 𝑣𝑘 ).
𝑘!
𝜎𝜖𝑆𝑘

Corolario 2.1.1

Si 𝑇 𝜖 Ԏ𝑘 (𝑉). Entonces 𝐴𝑙𝑡(𝐴𝑙𝑡(𝑇)) = 𝐴𝑙𝑡(𝑇).

Demostración. (Véase [12]).

Definición 2.1.8

Sea 𝜔 𝜖 Ʌ𝑘 (V) 𝑦 ɳ ϵ Ʌ𝑙 (V).definimos la operación ω˄ɳ 𝜖 Ʌ𝑘+𝑙 (V), llamada el

(𝑘+𝑙)!
producto exterior, como ω˄ɳ = 𝐴𝑙𝑡(𝜔 ⊗ ɳ).
𝑘!𝑙!

63
Teorema 2.1.6

Sean 𝑆 𝜖 Ԏ𝑘 (𝑉), 𝑇 𝜖 Ԏ𝑙 (𝑉). Si 𝐴𝑙𝑡(𝑆) = 0, entonces

𝐴𝑙𝑡(𝑆 ⊗ T) = 𝐴𝑙𝑡(𝑇 ⊗ S) = 0.

Demostración:

1
𝐴𝑙𝑡(𝑆 ⊗ T) = ∑ 𝑠𝑔𝑛(𝜎)𝑆 ⊗ T(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) , 𝑣𝜎(𝑘+1), … , 𝑣𝜎(𝑘+𝑙) )
(𝑘 + 𝑙)!
𝜎𝜖𝑆𝑘+𝑙

1
= ∑ 𝑠𝑔𝑛(𝜎)𝑆(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) ). T(𝑣𝜎(𝑘+1) , … , 𝑣𝜎(𝑘+𝑙) )
(𝑘 + 𝑙)!
𝜎𝜖𝑆𝑘+𝑙

Si 𝜎𝜖𝐺 ⊂ 𝑆𝑘+𝑙 , donde 𝐺 denota el conjunto de las permutaciones de 𝑆𝑘+𝑙

que mantienen todos los 𝑘 + 1, … , 𝑘 + 𝑙 fijos, entonces

1
∑ 𝑠𝑔𝑛(𝜎)𝑆(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) ). T(𝑣𝜎(𝑘+1) , … , 𝑣𝜎(𝑘+𝑙) )
(𝑘 + 𝑙)!
𝜎𝜖𝑆𝑘+𝑙

1
=[ ∑ 𝑠𝑔𝑛(𝜎)𝑆(𝑣𝜎(1) , … , 𝑣𝜎(𝑘) )]. T(𝑣𝑘+1 , … , 𝑣𝑘+𝑙 )
(𝑘 + 𝑙)!
𝜎𝜖𝑆𝑘+1

= 𝐴𝑙𝑡(𝑆). 𝑇(𝑣𝑘+1 , … , 𝑣𝑘+𝑙 ) = 0.

Sin embargo si 𝜎0 ∉ 𝐺, definimos 𝐺. 𝜎0 = {𝜎. 𝜎0 : 𝜎𝜖𝐺}, y sea

𝑣𝜎0 (1) , … , 𝑣𝜎0 (𝑘+𝑙) = 𝜔1 , … , 𝜔𝑘+𝑙,

entonces:

1
∑ 𝑠𝑔𝑛(𝜎)𝑆(𝑣𝜎(1) , … 𝑣𝜎(𝑘) ). T(𝑣𝜎(𝑘+1) , … , 𝑣𝜎(𝑘+𝑙) )
(𝑘 + 𝑙)!
𝜎𝜖𝐺.𝜎0

1
= [𝑠𝑔𝑛(𝜎0 ) ∑ 𝑠𝑔𝑛(𝜎 ′ ). 𝑆( 𝜔𝜎′ (1) … , 𝜔𝜎′ (𝑘) )]. T(𝜔𝑘+1, … , 𝜔𝑘+𝑙, )
(𝑘 + 𝑙)! ′
𝜎 𝜖𝐺

= 𝐴𝑙𝑡(𝑆). 𝑇(𝜔𝑘+1, … , 𝜔𝑘+𝑙, ) = 0.

La demostración de que 𝐴𝑙𝑡(𝑇 ⊗ S) = 0 es en forma similar.

64
Teorema 2.1.7

Sean 𝜔 𝜖 Ʌ𝑘 (𝑉) 𝑦 ɳ ϵ Ʌ𝑙 (𝑉) 𝑦 𝜃 𝜖 Ʌ𝑚 (𝑉), entonces

𝐴𝑙𝑡(𝐴𝑙𝑡(𝜔 ⊗ ɳ) ⊗ 𝜃) = 𝐴𝑙𝑡(𝜔 ⊗ ɳ ⊗ 𝜃) = 𝐴𝑙𝑡(𝜔 ⊗ 𝐴𝑙𝑡(ɳ ⊗ 𝜃)).

Demostración:

Obsérvese que

𝐴𝑙𝑡(𝐴𝑙𝑡(ɳ ⊗ 𝜃) − ɳ ⊗ 𝜃) = 𝐴𝑙𝑡(ɳ ⊗ 𝜃) − 𝐴𝑙𝑡(ɳ ⊗ 𝜃) = 0,

luego, por el teorema anterior,

0 = 𝐴𝑙𝑡(𝜔[𝐴𝑙𝑡(ɳ ⊗ 𝜃) − ɳ ⊗ 𝜃]) =

𝐴𝑙𝑡(𝜔 ⊗ 𝐴𝑙𝑡(ɳ ⊗ 𝜃)) − 𝐴𝑙𝑡(𝜔 ⊗ ɳ ⊗ 𝜃).

Entonces 𝐴𝑙𝑡(𝐴𝑙𝑡(𝜔 ⊗ ɳ) ⊗ 𝜃) = 𝐴𝑙𝑡(𝜔 ⊗ ɳ ⊗ 𝜃).

El caso 𝐴𝑙𝑡(𝜔 ⊗ 𝐴𝑙𝑡(ɳ ⊗ 𝜃)) = 𝐴𝑙𝑡(𝜔 ⊗ ɳ ⊗ 𝜃) se prueba de forma

similar.

Teorema 2.1.8

Sean 𝜔 𝜖 Ʌ𝑘 (𝑉) 𝑦 ɳ ϵ Ʌ𝑙 (𝑉) 𝑦 𝜃 𝜖 Ʌ𝑚 (𝑉), entonces

(𝑘+1+𝑚)!
(ω ˄ ɳ)˄ θ = ω ˄ (ɳ ˄ θ)= 𝐴𝑙𝑡 (ω ⊗ ɳ ⊗ θ).
𝑘!𝑙!𝑚!

Demostración:
(𝑘+1+𝑚)!
(ω ˄ ɳ)˄ θ = 𝐴𝑙𝑡((ω ˄ ɳ)˄ θ)
𝑘!𝑙!𝑚!

(𝑘+1+𝑚)! (𝑘+𝑙)! (𝑘+1+𝑚)!


= . 𝐴𝑙𝑡(ω ⊗ ɳ ⊗ θ) == 𝐴𝑙𝑡(ω ⊗ ɳ ⊗ θ).
(𝑘+𝑙)!𝑚! 𝑘!𝑙! 𝑘!𝑙!𝑚!

De hecho lo que se acaba de mostrar y que vale para

(ω ˄ (ɳ ˄ θ)= ( ω ˄ ɳ) ˄ θ) = ω ˄ ɳ ˄ θ, (2.1)

y de forma general, tenemos el producto de orden superior


𝑟

𝜔1 ˄ … ˄𝜔𝑟 = ⋀ 𝜔𝑖 . (2.2)
𝑖=1

65
Una de las principales razones de estudiar las formás alternadas es para

analizar la estructura de la función determinante, lo cual no es de interés

para este trabajo. Los resultados presentados hasta ahora serán

suficientes como ayuda en lo que sigue.

2.2 FORMAS DIFERENCIALES

En esta sección definiremos las llamadas 𝑘 − formás diferenciales en ℝ𝑛 ,

generalizando la idea que primeramente presentamos para

1 − formás en ℝ3 , (Ralph et al, 1983).

Asumimos como convención que partir de esta sección, cuando diremos

que una aplicación es diferenciable, estaremos refiriéndonos a una

aplicación de clase C∞ , y de esa forma no deberemos confundir la

palabra con su significado habitual en el cálculo usual.

Definición 2.1.2

Considere 𝑝 un punto de ℝ3 . El conjunto de vectores 𝑞 − 𝑝, para 𝑞 𝜖 ℝ3 ,

será llamado espacio tangente de ℝ3 en 𝑝, y será denotado por ℝ3𝑝 .

Observación 2.2.1

Recordando que el conjunto de vectores 𝑒1 , 𝑒2 , 𝑒3 forman una base

canónica de ℝ3 , y cómo podemos representar ℝ3 por ℝ30 , resulta que el

conjunto {(𝑒1 )𝑝 , (𝑒2 )𝑝 , (𝑒3 )𝑝 }, forma una base para el espacio tangente ℝ3𝑝

, denotando un elemento 𝑣 ϵ ℝ3𝑝 por 𝑣𝑝 . Este resultado será generalizado

para un espacio tangente en ℝ𝑛 .

66
Definición 2.2.2

Un campo de vectores en ℝ3 es una aplicación 𝑘, que asocia a cada

punto 𝑝 𝜖 ℝ3 un vector 𝑘(p)ϵ ℝ3𝑝 . Podemos escribir 𝑘 como

𝑘(p) = 𝑎1 (𝑝)𝑒1 + 𝑎2 (𝑝)𝑒2 + 𝑎3 (𝑝)𝑒3,

Donde 𝑎1 , 𝑎2 , 𝑎3 son funciones de ℝ3 en ℝ.

Diremos que un campo vectorial 𝑘 es diferenciable si cada función

𝑎𝑖 : ℝ3 → ℝ, i = 1,2,3,

es diferenciable. Para cada espacio tangente ℝ3𝑝 podemos asociar su

espacio dual, denotado por (ℝ3𝑝 )∗. Explícitamente,

(ℝ3𝑝 )∗ = {𝜑: ℝ3𝑝 → ℝ/𝜑 𝑒𝑠 𝑙𝑖𝑛𝑒𝑎𝑙} .

Teorema 2.2.1

Considere la base canónica {( 𝑒1 )𝑝 , (𝑒2 )𝑝 , (𝑒3 )𝑝 } de ℝ3𝑝 . Definimos la

aplicación 𝑥𝑖 por,

𝑥𝑖 : ℝ3 → ℝ

𝑥 → 𝑥𝑖 ,

para 𝑖 = 1,2,3, donde 𝑥 = (𝑥1 , 𝑥2 , 𝑥3 ).

Con estas condiciones, el conjunto (𝑑𝑥𝑖 )𝑝 ; 𝑖 = 1,2,3} será la base dual de

{(𝑒𝑖 )𝑝 ; 𝑖 = 1,2,3}.

Demostración:

De hecho basta observar que

𝜕𝑥𝑖 1 𝑠𝑖 𝑖 = 𝑗
(𝑑𝑥𝑖 )𝑝 (𝑒𝑗 ) = { .
𝜕𝑥𝑗 0 𝑠𝑖 𝑖 ≠ 𝑗

67
Definición 2.2.3

Una forma exterior de grado 1 en ℝ3 y una aplicación 𝜔, que asocia a cada

punto 𝑝 ϵ ℝ3 un elemento 𝜔(𝑝)𝜖 (ℝ3𝑝 )∗ . Por el teorema anterior, podemos

representar una forma exterior de grado 1 como


3

𝜔(𝑝) = 𝑎1 (𝑝)𝑑𝑥1 + 𝑎2 (𝑝)𝑑𝑥2 + 𝑎3 (𝑝)𝑑𝑥3 = ∑ 𝑎𝑖 (𝑝)𝑑𝑥𝑖 .


𝑖=1

Omitiendo (𝑝) en la expresión, obtenemos simplemente la forma

𝜔 = ∑ 𝑎𝑖 𝑑𝑥𝑖 .
𝑖=1

Definición 2.2.4

Considere la forma exterior


3

𝜔 = ∑ 𝑎𝑖 𝑑𝑥𝑖 .
𝑖=1

Si cada aplicación 𝑎𝑖 : ℝ3 → ℝ, i = 1,2,3, es diferenciable, 𝜔 es de hecho

una forma diferenciable de grado 1.

Definición 2.2.5

Sean 𝜑1 , 𝜑2 𝜖 (ℝ3𝑝 )∗ . Definimos la operación 𝜑1 ˄𝜑2 𝜖 Ʌ2 (ℝ3𝑝 )∗ por

(𝜑1 ˄𝜑2) (𝑣1 , 𝑣1 ) = det (𝜑𝑖 (𝑣𝑗 )).

El elemento (𝑑𝑥𝑖 )𝑝 ˄(𝑑𝑥𝑗 )𝑝 𝜖 Ʌ2 (ℝ3𝑝 )∗ será denotado por (𝑑𝑥𝑖 ˄𝑑𝑥𝑗 )𝑝 .

Dicho esto tenemos en particular que (𝑑𝑥𝑖 ˄𝑑𝑥𝑗 )𝑝 = −(𝑑𝑥𝑗 ˄𝑑𝑥𝑖 )𝑝 y

(𝑑𝑥𝑖 ˄𝑑𝑥𝑖 )𝑝 = 0.

68
Teorema 2.2.2

El conjunto {(𝑑𝑥𝑖 ˄𝑑𝑥𝑗 )𝑝 ; 𝑖 < 𝑗}, con 𝑖, 𝑗 = 1,2,3, es una base para Ʌ2 (ℝ3𝑝 )∗ .

Demostración. (Véase [3]).

Definición 2.2.6

Un campo de formas bilineales o forma exterior de grado 2 en ℝ3 , y una

correspondencia ω que asocia a cada 𝑝 ϵ ℝ3 un elemento 𝜔(𝑝)𝜖 Ʌ2 (ℝ3𝑝 ).

Por el teorema (2.2.2) podemos escribir una forma exterior 𝜔 como

𝜔(𝑝) = 𝑎12 (𝑝)(𝑑𝑥1 ˄𝑑𝑥2 )𝑝 + 𝑎13 (𝑝)(𝑑𝑥1 ˄𝑑𝑥3 )𝑝

+ 𝑎23 (𝑝)(𝑑𝑥2 ˄𝑑𝑥3 )𝑝 , (2.3)

o simplemente por omitir 𝑝,

∑ 𝑎𝑖𝑗 𝑑𝑥𝑖 ˄𝑑𝑥𝑗 , 𝑖, 𝑗 = 1,2,3,


𝑖<𝑗

donde 𝑎𝑖𝑗 son funciones reales en ℝ3 , (Spivak; 1988).

Definición 2.2.7

Cuando tenemos la forma exterior

∑ 𝑎𝑖𝑗 𝑑𝑥𝑖 ˄𝑑𝑥𝑗 , 𝑖, 𝑗 = 1,2,3,


𝑖<𝑗

y cada 𝑎𝑖𝑗 es diferenciable, llamaremos 𝜔 de forma diferencial de grado

2 o simplemente 2-forma.

Hasta ahora definimos el concepto de 1-forma diferencial y 2-forma

diferencial. Estas definiciones fueron diseñadas para familiarizarnos con

los resultados y las notaciones, para la posterior generalización.

69
Definición 2.2.8

Considere p un punto de ℝ𝑛 . El conjunto de vectores 𝑞 − 𝑝, para 𝑞 𝜖ℝ𝑛 ,

será llamado espacio tangente de ℝ𝑛 en 𝑝, y será denotado por ℝ𝑛𝑝 .

Recordando que Ʌ2 (ℝ𝑛𝑝 )∗ denota el espacio de las formas alternadas de

(ℝ𝑛𝑝 )𝑘 en ℝ, esto es,

Ʌ𝑘 (ℝ𝑛𝑝 )∗ = {𝜑: ℝ𝑛𝑝 x … xℝ𝑛𝑝 → ℝ/𝜑 es 𝑘 − lineal y alternada},



observamos que, tomando elementos 𝜑1 , … , 𝜑𝑘 𝜖 (ℝ𝑛𝑝 ) , donde por

definición:

(𝜑1 ˄ … ˄𝜑𝑘 )(𝑣1 , … , 𝑣𝑘 ) = det(𝜑𝑖 (𝑣𝑗 )) 𝑖, 𝑗 = 1, … , 𝑘 (2.4)

Observación 2.2.2

En particular, note que (𝑑𝑥𝑖1 )𝑝 ˄ … ˄(𝑑𝑥𝑖𝑘 )𝑝 𝜖 Ʌ𝑘 (ℝ𝑛𝑝 ) , 𝑖1 , … 𝑖𝑘 = 1, … , 𝑛.

Denotaremos este elemento por (𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 )𝑝 .

Teorema 2.2.3

El conjunto {(𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 )𝑝 ; 𝑖1 < 𝑖2 < ⋯ < 𝑖𝑘 ; 𝜖 {1, … , 𝑛} es una base


para el espacio Ʌ𝑘 (ℝ𝑛𝑝 ) .

Demostración:

Inicialmente notemos que 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 son linealmente independientes,

pues tomando 𝑎𝑖1 …𝑖𝑘 , 𝑖1 < 𝑖2 < ⋯ < 𝑖𝑘 , 𝑖𝑗 𝜖 {𝑖, … , 𝑛} de forma que

∑ 𝑎𝑖1 …𝑖𝑘 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 = 0, (2.5)


𝑖1 <⋯<𝑖𝑘

y aplicando (2.5) a los vectores (𝑒𝑗1 … 𝑒𝑗𝑘 ), 𝑗1 < 𝑗2 < ⋯ < 𝑗𝑘 , con

𝑗𝑙 𝜖 {𝑖, … , 𝑛},

tenemos

70
∑ 𝑎𝑖1 …𝑖𝑘 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 (𝑒𝑗1 … 𝑒𝑗𝑘 ) = 𝑎𝑗1 …𝑗𝑘 ,
𝑖1 <⋯<𝑖𝑘

y por tanto 𝑎𝑖1 …𝑖𝑘 = 0.


Debemos mostrar ahora que para cualquier 𝑓𝜖 Ʌ𝑘 (ℝ𝑛𝑝 ) , 𝑓 es una

combinación lineal de la forma

𝑓= ∑ 𝑎𝑖1 …𝑖𝑘 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 .


𝑖1 <⋯<𝑖𝑘


Por tanto, basta tomar 𝑔 𝜖 Ʌ𝑘 (ℝ𝑛𝑝 ) , donde

𝑔= ∑ 𝑓(𝑒𝑖1 … 𝑒𝑖𝑘 ) 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 .


𝑖1 <⋯<𝑖𝑘

De hecho, 𝑓(𝑒𝑖1 … 𝑒𝑖𝑘 ) = 𝑔(𝑒𝑖1 … 𝑒𝑖𝑘 ) para todos 𝑖1 , … , 𝑖𝑘 . Asimismo,

haciendo 𝑓(𝑒𝑖1 … 𝑒𝑖𝑘 ) = 𝑎𝑖1 …𝑖𝑘 obtenemos la forma para 𝑓,

𝑓= ∑ 𝑎𝑖1 …𝑖𝑘 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 .


𝑖1 <⋯<𝑖𝑘

Definición 2.2.9

Una 𝑘 −forma exterior en ℝ𝑛 es una aplicación 𝜔 que asocia a cada



𝑝 𝜖 ℝ𝑛 , un elemento 𝜔(𝑝) 𝜖 Ʌ𝑘 (ℝ𝑛𝑝 ) .

Por el teorema (2.2.3), podemos escribir una forma exterior 𝜔 como

𝜔 (𝑝 ) = ∑ 𝑎𝑖1 …𝑖𝑘 (𝑝)(𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 ) , (2.6)


𝑝
𝑖1 <⋯<𝑖𝑘

donde 𝑖𝑗 𝜖 {𝑖, … , 𝑛} y todos los 𝑎𝑖1 …𝑖𝑘 son funciones reales en ℝ𝑛 .

71
Definición 2.2.10

Cuando una 𝑘 −forma exterior

𝜔 = ∑ 𝑎𝑖1 …𝑖𝑘 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 ,


𝑖1 <⋯𝑖𝑘

y tal que, todas las funciones 𝑎𝑖𝑗 : ℝ𝑛 → ℝ son diferenciables, 𝜔 será de

hecho una 𝑘 −forma diferencial.

Denotando por 𝐼 𝑙𝑎 𝑘 −upla (𝑖1 … 𝑖𝑘 ),entonces con el fin de simplificar la

notación, podemos denotar una 𝑘 −forma diferencial 𝜔 por

𝜔 = ∑ 𝑎𝐼 𝑑𝑥𝐼 . (2.7)
𝐼

Por convención, definiremos que una 0-forma diferencial en ℝ𝑛 será una

aplicación diferenciable 𝑓: ℝ𝑛 → ℝ. A partir de ahora, por simplicidad,

llamaremos una 𝑘-forma diferenciable simplemente por una 𝑘-forma, y

nuestro objetivo será definir algunas operaciones que implican tales

formas, y estudiar sus propiedades.

Definición 2.2.11

Sean 𝜔 𝑦 ɳ dos 𝑘 -formas en ℝ𝑛 . Podemos definir la suma 𝜔 + ɳ

como,

𝜔 + ɳ = ∑ 𝑎𝐼 𝑑𝑥𝐼 + ∑ 𝑏𝐼 𝑑𝑥𝐼 = ∑(𝑎𝐼 + 𝑏𝐼 )𝑑𝑥𝐼


𝐼 𝐼 𝐼

Definición 2.2.12

Sean 𝜔 una 𝑘-forma y 𝜑 una 𝑆-forma. Definimos el producto exterior de

formas diferenciales 𝜔˄φ como

𝜔˄φ = ∑ 𝑎𝐼 𝑏𝐽 𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 ,


𝐼𝐽

72
donde

𝜔 = ∑ 𝑎𝐼 𝑑𝑥𝐼 , 𝐼 = (𝑖1 … 𝑖𝑘 ) con 𝑖1 < ⋯ < 𝑖𝑘 , y


𝐼

𝜑 = ∑ 𝑏𝐼 𝑑𝑥𝐼 , 𝐽 = (𝑖1 … 𝑖𝑘 ), 𝑐𝑜𝑛 𝑖1 < ⋯ < 𝑖𝑘


𝐼

Observación 2.2.3

De acuerdo con la definición de producto exterior, tenemos una k-forma

𝜑1 ˄ … ˄𝜑𝑘 , donde cada 𝜑𝑖 es una 1-forma, para 𝑖 = 1, … , 𝑘, recordando

que 𝜑1 ˄ … ˄𝜑𝑘 (𝑣1 , … , 𝑣𝑘 ) = det(𝜑𝑖 (𝑣𝑗 )).

Teorema 2.2.4

Sean 𝜔 una 𝑘 −forma, 𝜑 una 𝑠 −forma, y 𝜃 una 𝑟 −forma, entonces,

𝑖) (𝜔˄𝜑)˄𝜃 = 𝜔˄(𝜑˄𝜃)

𝑖𝑖) (𝜔˄𝜑) = (−1)𝑘𝑠 (𝜑˄𝜔)

𝑖𝑖𝑖) 𝜔˄(𝜑 + 𝜃) = (𝜔˄𝜑) + (𝜔˄𝜃), 𝑠𝑖 𝑟 = 𝑠

Demostración:

Sean

𝜔 = ∑ 𝑎𝐼 𝑑𝑥𝐼 , 𝐼 = (𝑖1 … 𝑖𝑘 ) con 𝑖1 < ⋯ < 𝑖𝑘 ,


𝐼

𝜑 = ∑ 𝑏𝐼 𝑑𝑥𝐼 , 𝐽 = (𝑗1 … 𝑗𝑘 ), 𝑐𝑜𝑛 𝑗1 < ⋯ < 𝑗𝑠


𝐼

𝜃 = ∑ 𝑐𝐿 𝑑𝑥𝐿 , 𝐿 = (𝑖1 … 𝑖𝑘 ), 𝑐𝑜𝑛 𝑖1 < ⋯ < 𝑖𝑠 .


𝐿

73
(i) (𝜔˄φ)˄𝜃 =

(∑ 𝑎𝐼 𝑏𝐽 𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 ) ˄𝜃 = ∑ 𝑎𝐼 𝑏𝐽 𝑐𝐿 ˄𝑑𝑥𝐼 ˄𝑑𝑥𝐽 ˄𝑑𝑥𝐿


𝐼𝐽 𝐼𝐽𝐿

= 𝜔˄(∑ 𝑏𝐽 𝑐𝐿 𝑑𝑥𝐽 ˄𝑑𝑥𝐿 ) = 𝜔˄(𝜑˄𝜃).


𝐽𝐿

(ii) 𝜔˄𝜑 =

∑ 𝑎𝐼 𝑏𝐽 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 ˄𝑑𝑥𝑗1 ˄ … ˄𝑑𝑥𝑗𝑠


𝐼𝐽

= ∑ 𝑎𝐼 𝑏𝐽 (−1) 𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘−1 ˄𝑑𝑥𝑗1 ˄𝑑𝑥𝑖𝑘 ˄ … ˄𝑑𝑥𝑗𝑠


𝐼𝐽

= ∑ 𝑏𝐽 𝑎𝐼 (−1)𝑘 𝑑𝑥𝑗1 ˄𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 ˄𝑑𝑥𝑗2 ˄ … ˄𝑑𝑥𝑗𝑠 .


𝐼𝐽

Procediendo inductivamente obtenemos, por el hecho de 𝐽 posee

elementos,

𝜔˄𝜑 = ∑ 𝑏𝐽 𝑎𝐼 (−1)𝑘𝑠 𝑑𝑥𝑗1 ˄ … ˄𝑑𝑥𝑗𝑠 ˄𝑑𝑥𝑖1 ˄ … ˄𝑑𝑥𝑖𝑘 = (−1)𝑘𝑠 (𝜑˄𝜔).


𝐽𝐼

(iii) Si 𝑟 = 𝑠, la operación 𝜑 + 𝜃 está definida, y

𝜑 + 𝜃 = ∑ 𝑏𝐽 𝑑𝑥𝐽 + ∑ 𝑐𝐽 𝑑𝑥𝐽 = ∑( 𝑏𝐽 + 𝑐𝐽 )𝑑𝑥𝐽 ,


𝐽 𝐽 𝐽

Por tanto,

𝜔˄(𝜑 + 𝜃) = ∑ 𝑎𝐼 𝑑𝑥𝐼 ˄ ∑(𝑏𝐽 + 𝑐𝐽 )𝑑𝑥𝐽 = ∑ 𝑎𝐼 (𝑏𝐽 + 𝑐𝐽 ) 𝑑𝑥𝐼 ˄𝑑𝑥𝐽


𝐼 𝐽 𝐼𝐽

= ∑ 𝑎𝐼 𝑏𝐽 𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 + ∑ 𝑎𝐼 𝑐𝐽 𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 = (𝜔˄𝜑) + (𝜔˄𝜃).


𝐼𝐽 𝐼𝐽

74
Consideremos una aplicación diferenciable 𝑓: ℝ𝑛 → ℝ𝑚 . Entonces 𝑓

induce una aplicación 𝑓 ∗ que asocia una k-forma en ℝ𝑛 a una k-forma

en ℝ𝑚 , por la siguiente definición.

Definición 2.2.13

Sean 𝑓: ℝ𝑛 → ℝ𝑚 una aplicación diferenciable y 𝜔 una 𝑘-forma en ℝ𝑛 .

Definimos la aplicación 𝑓 ∗ 𝜔 por


𝑛
(𝑓 ∗ 𝜔)(𝑝)(𝑣1 … 𝑣𝑘 ) 𝜖 ℝ𝑛𝑝 𝑦 𝑑𝑓𝑝 : ℝ𝑛𝑝 → ℝ𝑓(𝑝)

es la diferencial de la aplicación 𝑓 en 𝑝.

Observación 2.2.4

Por convención, cuando 𝑔 es una 0-forma, definimos la aplicación 𝑓 ∗ (𝑔)

como la composición 𝑔 ° 𝑓.

Sean 𝑓: ℝ𝑛 → ℝ𝑚 una aplicación diferenciable, ω y 𝜑 k-formas en ℝ𝑚 y

g: ℝ𝑚 → ℝ una 0-forma. Asumiremos las siguientes propiedades, cuya

demostración puede encontrarse en (Spivak, 1979).

𝑖) 𝑓 ∗ (𝜔 + φ) = 𝑓 ∗ 𝜔 + 𝑓 ∗ φ

𝑖𝑖) 𝑓 ∗ (𝑔𝜔) = 𝑓 ∗ (𝑔)𝑓 ∗ (𝜔)

𝑖𝑖𝑖) 𝑠𝑖 φ1 , … , φ𝑘 , son 1-formas en ℝ𝑚 , entonces 𝑓 ∗ (φ1 ˄ … ˄φ𝑘 ) =

𝑓 ∗ (φ1 )˄ … ˄𝑓 ∗ (φ𝑘 ).

Definición 2.2.14

Sea 𝑔: ℝ𝑛 → ℝ una 0-forma en ℝ𝑛 , entonces la diferencial


𝑛
𝜕𝑔
𝑑𝑔 = ∑ 𝑑𝑥 ,
𝜕𝑥𝑖 𝑖
𝑖=1

es una 1-forma.

75
Definición 2.2.15

Sea

𝜔 = ∑ 𝑎𝐼 𝑑𝑥𝐼
𝐼

una 𝑘-forma en ℝ𝑛 . La diferencial exterior 𝑑𝜔, de 𝜔 es definida por

𝑑𝜔 = ∑ 𝑑𝑎𝐼 ˄𝑑𝑥𝐼 .
𝐼

Teorema 2.2.5

Sean 𝜔1 , 𝜔2 𝑘 − formas en ℝ𝑚 y 𝜑 una 𝑠 −formas en ℝ𝑚 . Entonces,

𝑖) 𝑑(𝜔1 + 𝜔2 ) = 𝑑𝜔1 + 𝑑𝜔2

𝑖𝑖) 𝑑(𝜔˄𝜑) = 𝑑𝜔˄𝜑 + (−1)𝑘 𝜔˄d𝜑

𝑖𝑖𝑖) 𝑑(𝑑𝜔) = 𝑑2 𝜔 = 0

𝑖𝑣) 𝑑(𝑓 ∗ 𝜔) = 𝑓 ∗ (𝑑𝜔), donde 𝑓: ℝ𝑛 → ℝ𝑚 es una aplicación

diferenciable.

Demostración:

Probaremos solamente las afirmaciones (ii) y (iii)

ii) 𝑑(𝜔˄𝜑) = 𝑑(∑𝐼𝐽 𝑎𝐼 𝑏𝐽 𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 ) = ∑𝐼𝐽 𝑑( 𝑎𝐼 𝑏𝐽 )˄𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 =

𝑑𝜔˄𝜑 + (−1)𝑘 ∑ 𝑎𝐼 𝑑𝑥𝐼 ˄d𝑏𝐽 ˄ 𝑑𝑥𝐽 = 𝑑𝜔˄𝜑 + (−1)𝑘 𝜔˄d𝜑


𝐼𝐽

= ∑ 𝑏𝐽 𝑑 𝑎𝐼 ˄𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 + ∑ 𝑎𝐼 𝑑𝑏𝐽 ˄𝑑𝑥𝐼 ˄ 𝑑𝑥𝐽 .


𝑖𝑗 𝑖𝑗

(iii) Asumiremos primeramente que 𝜔 sea una 0-forma, esto es, 𝜔 es una

función 𝑓: ℝ𝑛 → ℝ que asocia cada punto ( 𝑥1 , … , 𝑥𝑛 ) 𝜖 ℝ𝑛 el valor

𝑓(𝑥1 , … , 𝑥𝑛 ) 𝜖 ℝ.

76
Entonces,

𝑛 𝑛 𝑛 𝑛
𝜕𝑓 𝜕𝑓 𝜕 2𝑓
𝑑(𝑑𝑓) = 𝑑 (∑ 𝑥 ) = ∑ 𝑑( )˄d𝑥𝑗 = ∑(∑ 𝑑𝑥 ˄d𝑥𝑗 ),
𝜕𝑥𝑗 𝑗 𝜕𝑥𝑗 𝜕𝑥𝑖 𝜕𝑥𝑗 𝑖
𝑗=1 𝑗=1 𝑗=1 𝑖=1

𝜕2 𝑓 𝜕2 𝑓
por la hipótesis de 𝑓 que es una 0 −forma, se sigue que 𝜕𝑥 𝜕𝑥 = 𝜕𝑥
𝑖 𝑗 𝑗 𝜕𝑥𝑖

(Teorema 1.2.2). Y como 𝑑𝑥𝑖 ˄d𝑥𝑗 = −d𝑥𝑗 ˄𝑑𝑥𝑖 , cuando 𝑥 ≠ 𝑗, tenemos

𝜕 2𝑓 𝜕 2𝑓
𝑑(𝑑𝑓) = ∑( − ) 𝑑𝑥𝑖 ˄d𝑥𝑗 = 0.
𝜕𝑥𝑖 𝜕𝑥𝑗 𝜕𝑥𝑗 𝜕𝑥𝑖
𝑖<𝑗

Considere ahora el caso en que

𝜔 = ∑ 𝑎𝐼 𝑑𝑥𝐼 .
𝐼

Por la afirmación (i), podemos restringir al caso en que 𝜔 = 𝑎𝐼 𝑑𝑥𝐼 , con

𝑎𝐼 ≠ 0. y por (ii), se sigue

𝑑𝜔 = 𝑑𝑎𝐼 ˄𝑑𝑥𝐼 + 𝑎𝐼 𝑑(𝑑𝑥𝐼 ).

Más aun observe que 𝑑(𝑑𝑥𝐼 ) = 𝑑(1)˄𝑑𝑥𝐼 = 0.

Por tanto,

𝑑(𝑑𝜔) = 𝑑(𝑑𝑎𝐼 ˄𝑑𝑥𝐼 ) = 𝑑(𝑑𝑎𝐼 )˄𝑑𝑥𝐼 + 𝑑𝑎𝐼 ˄d(𝑑𝑥𝐼 ) = 0,

recordando que

𝑑(𝑑𝑎𝐼 ) = 𝑑(𝑑𝑥𝐼 ) = 0.

77
CAPÍTULO III

INTEGRACIÓN EN VARIEDADES

En este capítulo se definen las variedades en ℝ𝑛 , y utilizamos los conceptos

estudiados en el capítulo anterior para establecer la noción de integral de una

𝑘 − formás en ℝ𝑛 . Posteriormente, para la demostración del teorema de

stokes, estableceremos la integral de una 𝑘 −forma definida en una variedad

diferenciable.

3.1 VARIEDADES DIFERENCIABLES

El teorema de Stokes para aplicaciones en ℝ2 𝑦 ℝ3 , viene dado por la

siguiente identidad

∬ (𝑟𝑜𝑡𝐹. 𝑛)𝑑𝑠 = ∫ 𝐹. 𝑑𝑟, (3.1)


𝑆 𝜕𝑆

Donde S es una superficie en ℝ3 . Para la generalización de este teorema,

necesitamos ampliar el concepto de superficie para dimensiones

mayores, que son las llamadas variedades. Intuitivamente, una variedad

es la generalización de curvas y superficies para dimensiones

arbitrariamente grandes.

Algunos matemáticos como Riemann y Gauss figuran entre los principales

nombres que contribuían para la formalización del concepto de

variedades. Iremos ahora a definir el concepto de variedad diferenciable.

78
Definición 3.1.2

Una variedad diferenciable n-dimensional, o simplemente una

n-variedad, es un conjunto 𝑀 provisto de una familia de aplicaciones

inyectivas 𝑓: 𝑈𝛼 ⊂ ℝ𝑛 → 𝑀, de abiertos 𝑈𝛼 en 𝑀, tales que

a) ⋃𝛼 𝑓𝛼 (𝑈𝛼 ) = 𝑀.

b) para cada par 𝛼, 𝛽, con 𝑓𝛼 (𝑈𝛼 )⋂𝑓𝛽 (𝑈𝛽 ) = 𝑊 ≠ 𝜙, los conjuntos

𝑓𝛼−1 (𝑊) 𝑦 𝑓𝛽−1 (𝑊) son abiertos en ℝ𝑛 , y las aplicaciones 𝑓𝛽−1 ° 𝑓𝛼 ,

𝑓𝛼−1 °𝑓𝛽 son diferenciables.

Definición 3.1.3

El par (𝑈𝛼 , 𝑓𝛼 ), con 𝑝 𝜖 𝑓𝛼 (𝑈𝛼 ), se denomina una parametrización, o

sistema de coordenadas de M en p. y 𝑓𝛼 (𝑈𝛼 ) se denomina una vecindad

coordenada en p.

Definición 3.1.4

Una familia (𝑓𝛼 , 𝑈𝛼 ), que goza de las propiedades (a) y (b) se denomina

una estructura diferenciable en 𝑀.

De ello se deduce inmediatamente de la definición que el propio conjunto

ℝ𝑛 es una variedad diferenciable de dimensión n, asimismo como todo

subconjunto abierto 𝐴 ⊂ ℝ𝑛 .

Observando la definición (3.1.5) de superficie regular en ℝ3 dada por (2),

se sigue que una superficie regular en ℝ3 es una variedad diferenciable

de dimensión 2.

79
Definición 3.1.5

Un subconjunto 𝑆 ⊂ ℝ3 es una superficie regular si, para cada 𝑝 𝜖 𝑆 ,

existe una vecindad 𝑉 de 𝑝 en ℝ3 es una aplicación 𝑥: 𝑈 → 𝑉⋂𝑆 de un

abierto 𝑈 𝑑𝑒 ℝ2 sobre 𝑉⋂𝑆 ⊂ ℝ3 tales que

(i) 𝑥 es diferenciable.

(ii) 𝑥 es un homeomorfismo.

(iii) Paro todo 𝑞 𝜖 𝑈, la diferencial 𝑑𝑥𝑞 : ℝ2 → ℝ3 es inyectiva.

Observación 3.1.1

Se asume partir de ahora que todas las variedades serán de Hausdorff y

poseen la base enumerable. Y con la intención de simplificar la notación,

nos referiremos a la mayoría de veces a una variedad diferenciable 𝑛-

dimensional 𝑀 simplemente por 𝑀𝑛 , donde el exponente 𝑛 indicará su

dimensión.

Definición 3.1.6

Sean 𝑀1𝑛 𝑦 𝑀2𝑚 variedades diferenciables. Una aplicación 𝜑: 𝑀1𝑛 → 𝑀2𝑚 es

diferenciable en el punto 𝑝 𝜖 𝑀1𝑛 si, dada una parametrizacion

𝑔: 𝑉 ⊂ ℝ𝑚 → 𝑀1𝑛 , en una vecindad de 𝜑(𝑝), existe una parametrización

𝑓: 𝑈 ⊂ ℝ2 → 𝑀1𝑛 , en una vecindad de p, tal que, 𝜑(𝑓(𝑈)) ⊂ 𝑔(𝑉), y la

aplicación 𝑔−1 𝑜 𝜑 °𝑜 𝑓 ∶ ℝ𝑛 → ℝ𝑚 es diferenciable en 𝑓 −1 (𝑝).

Naturalmente diremos que la aplicación 𝜑 es diferenciable en algún

abierto de 𝑀1𝑛 si es diferenciable en todos los puntos de este conjunto. Lo

que necesitamos ahora es definir los conceptos de curva diferenciable y

80
vector tangente en una variedad diferenciable, para poder extender los

conceptos usuales del cálculo en superficies en ℝ3 .

Definición 3.1.7

Una curva diferenciable parametrizada es una aplicación diferenciable

𝛼: 𝐼 → ℝ𝑛 de un intervalo abierto 𝐼 = (−𝜀, 𝜀) de la recta real ℝ en ℝ𝑛 .

Observación 3.1.2

La palabra diferenciable en la definición anterior significa que 𝛼 es una

correspondencia que lleva a cada 𝑡 𝜖 𝐼 en un punto (𝑥1 (𝑡), . . 𝑥𝑛 (𝑡)) ϵ ℝ𝑛

de modo que las funciones reales 𝑥1 , … 𝑥𝑛 son diferenciables.

Consideremos la aplicación 𝛼: (−𝜀, 𝜀) → ℝ𝑛 que describe una curva

diferenciable en ℝ𝑛 , con 𝛼(0) = 𝑝 𝜖 ℝ𝑛 , y escribiremos

𝛼(𝑡) = (𝑥1 (𝑡), . . 𝑥𝑛 (𝑡)), 𝑡 𝜖 (−𝜀, 𝜀), (𝑥1 , … 𝑥𝑛 ) 𝜖 ℝ𝑛 ,

Entonces 𝛼 ′ (0) =(𝑥1, (0),.. 𝑥𝑛, (0))= 𝑣 𝜖 ℝ𝑛 . Considere ahora una función

𝜑: ℝ𝑛 → ℝ, diferenciable en una vecindad de 𝑝. De esa forma la derivada

de 𝜑 en la dirección de 𝑣, es el punto 𝑝 es dada por


𝑛 𝑛
𝑑 𝜕𝜑 𝑑𝑥𝑖 𝜕
(𝜑 ° 𝛼)|𝑡=0 = ∑ |𝑡=0 = (∑ x𝑖′ (0) )𝜑 . (3.2)
𝑑𝑡 𝜕x𝑖 𝑑𝑡 𝜕𝑥𝑖
𝑖=1 𝑖=1

Por tanto, la derivada direccional en la dirección del vector 𝑣 es un

operador sobre funciones diferenciable que depende solamente de 𝑣. Por

medio de esa propiedad podemos definir el concepto del vector tangente

a una variedad y, posteriormente definir un espacio tangente a una

variedad diferenciable. Consideremos una variedad diferenciable 𝑀𝑛 𝑦 𝐷

81
el conjunto de las funciones en 𝑀𝑛 que son diferenciables en 𝑝, y elegir

una parametrización 𝑓: 𝑈 ⊂ ℝ𝑛 → 𝑀𝑛 , en una vecindad de

𝑝 = 𝑓(0, … ,0). Entonces la curva 𝛼: 𝐼 → 𝑀𝑛 , y una función 𝜑𝜖 𝐷 pueden

ser escritas respectivamente como

𝑓 −1 𝑜 𝛼(𝑡) = (𝑥1 (𝑡), . . 𝑥𝑛 (𝑡));

𝜑 𝑜 𝑓(𝑞) = 𝜑(𝑥1 , … , 𝑥𝑛 ), 𝑞 = (𝑥1 , … , 𝑥𝑛 ),

entonces, por (3.2) podemos escribir

𝑑 𝑑
𝛼 ′ (0)𝜑 = (𝜑°𝛼)|𝑡=0 = 𝜑(𝑥1 (𝑡), . . 𝑥𝑛 (𝑡))|𝑡=0
𝑑𝑡 𝑑𝑡
𝑛
𝜕
= (∑ 𝑥𝑖′ (0) ( ) ) 𝜑. (3.3)
𝜕x𝑖0 0
𝑖=1

Luego el vector tangente 𝛼 ′ (0) en 𝑝 puede ser escrito como


𝑛
𝜕
𝛼 ′ (0)
= ∑ x𝑖′ (0) ( ) . (3.4)
𝜕x𝑖0 0
𝑖=1

Estas consideraciones hecha anteriormente sirven para poder observar

que, llamado 𝑇𝑝 𝑀 el espacio tangente en 𝑝 de una variedad diferenciable

𝑀, entonces la elección de una parametrización alrededor de 𝑝 servirá

para determinar una base para 𝑇𝑝 𝑀 , que de hecho será un espacio

vectorial. Los detalles al respecto de esta construcción pueden ser

encontradas en la referencia, (Spivak; 1988).

Definición 3.1.8

Sea 𝑀𝑛 una variedad diferenciable y 𝑝 𝜖 𝑀𝑛 . llamaremos el espacio

𝜕
tangente a 𝑀𝑛 en 𝑝 al conjunto 𝑇𝑝 𝑀 y la base {(𝜕𝑥 ) ; 𝑖 = 1, … , 𝑛} para
𝑖0 0

𝑇𝑝 𝑀 será llamada base asociada a la parametrización 𝑓.

82
Ahora que definimos el espacio tangente a una variedad, podemos definir

la diferencial de una aplicación 𝜑: 𝑀1𝑛 → 𝑀2𝑛 utilizando estos conceptos.

Definición 3.1.9

Sean 𝑀1𝑛 𝑦 𝑀2𝑛 variedades diferenciables, y 𝜑: 𝑀1𝑛 → 𝑀2𝑛 una aplicación

diferenciable. Para cada 𝑝 𝜖 𝑀1𝑛 , la diferencial de 𝜑 en 𝑝 es la aplicación

lineal

𝑑𝜑𝑝 : 𝑇𝑝 𝑀1𝑛 → 𝑇𝜑(𝑝) 𝑀2𝑛 ,

que asocia cada vector 𝑣 𝜖 𝑇𝑝 𝑀1𝑛 al vector 𝑑𝜑𝑝 (0) 𝜖 𝑇𝜑(𝑝) 𝑀2𝑛 que es

definida eligiendo una curva diferenciable 𝛼: (−𝜀, 𝜀) → 𝑀1𝑛 , con 𝛼 ′ (0) = 𝑣,

lo que nos permite la representación

𝑑𝜑𝑝 (𝑣) = (𝜑 ° 𝛼)′ (0).

Observe que para que la definición (3.1.9) tenga sentido, tiene que ser

independiente de la elección de α.

Y este resultado es garantizado por el siguiente teorema.

Teorema 3.1.1

En la definición (3.1.9), dado 𝑣 𝜖 𝑇𝑝 𝑀1𝑛 , el vector 𝑑𝜑𝑝 (𝑣) = (𝜑 ° 𝛼)′ (0) no

depende de la elección de 𝛼.

Demostración:

Sean 𝑓1 (𝑥1 , … , 𝑥𝑛 )𝑦 𝑓2 (𝑦1 , … , 𝑦𝑛 ) parametrizaciones en vecindades de

𝑝 𝑦 𝜑(𝑝) , respectivamente, y suponga que 𝜑 se expresa en estas

coordenadas por

𝜑(𝑥1 , … , 𝑥𝑛 ) = (𝜑1 (𝑥), … , 𝜑𝑛 (𝑥)), 𝑑𝑜𝑛𝑑𝑒 𝑥 = (𝑥1 , … , 𝑥𝑛 ).

Considere 𝛼(𝑡) = (𝑥1 (𝑡), … , 𝑥𝑛 (𝑡)), 𝑡 𝜖(−𝜀, 𝜀). De esa forma obtenemos,

83
(𝜑°𝛼)(𝑡) = 𝜑(𝑥1 (𝑡), … , 𝑥𝑛 (𝑡))

= (𝜑1 (𝑥1 (𝑡), … , 𝑥𝑛 (𝑡)), … , 𝜑𝑛 (𝑥1 (𝑡), … , 𝑥𝑛 (𝑡))),

𝜕𝑓
y la expresión de (𝜑°𝛼)′ (0) en la base {𝜕𝑥2 } es
𝑖

𝜕𝜑1 ′ 𝜕𝜑1 ′ 𝜕𝜑𝑛 ′ 𝜕𝜑𝑛 ′


(𝜑°𝛼)′ (0) = ( 𝑥1 (0) + ⋯ + 𝑥𝑛 (0), … , 𝑥1 (0) + ⋯ + 𝑥 (0)).
𝜕𝑥1 𝜕𝑥𝑛 𝜕𝑥1 𝜕𝑥𝑛 1

Lo que nos muestra que (𝜑°𝛼)′ (0) depende de la aplicación 𝜑 y las

coordenadas de

𝜕𝑓
(𝑥1′ (0), … , 𝑥𝑛′ (0)) , en la base {𝜕𝑥1 }.
𝑖

Definición 3.1.10

Una aplicación 𝜑: 𝑀1𝑛 → 𝑀2𝑛 entre variedades diferenciables es de hecho

un difeomorfismo si es biyectiva, diferenciable, y posee inversa también

diferenciable. Diremos ahora que una aplicación 𝜑 será un difeomorfismo

local en un punto 𝑝, si satisface las condiciones de difeomorfismo en una

vecindad de 𝑝. Esto es, existen abiertos 𝑈 𝑦 𝑉, con 𝑝 𝜖 𝑈 tal que

𝜑: 𝑈 → 𝑉 es un difeomorfismo.

Definición 3.1.11

Considere una variedad diferenciable 𝑀𝑛 .Una 𝑘 −forma exterior 𝜔 en 𝑀𝑛 ,



es la elección para cada 𝑝 𝜖 𝑀𝑛 ,de un elemento 𝜔(𝑝) 𝜖 Ʌ𝑘 (𝑇𝑝 𝑀) .

Definición 3.1.12

Dada una 𝑘-forma exterior 𝜔 en una variedad diferenciable 𝑀𝑛 , y una

parametrizacion 𝑓𝛼 : 𝑈𝛼 → 𝑀𝑛 en una vecindad de 𝑝 𝜖 𝑓𝛼 (𝑈𝛼 ), definimos la

representación de 𝜔 en esta parametrización como la 𝑘 −forma exterior

𝜔𝛼 en 𝑈𝛼 ⊂ ℝ𝑛 , dada por
84
𝜔𝛼 (𝑣1 , … , 𝑣𝑘 ) = 𝜔(𝑑𝑓𝛼 (𝑣1 ), … , 𝑑𝑓𝛼 (𝑣𝑘 )), 𝑐𝑜𝑛 𝑣1 , … , 𝑣𝑘 𝜖 ℝ𝑛 .

Observe que la definición anterior que, si cambiamos el sistema de

coordenadas para 𝑓𝛽 : 𝑈𝛽 → 𝑀𝑛 , 𝑝 𝜖 𝑓𝛽 (𝑈𝛽 ), obtenemos

(𝑓𝛽−1 𝑜 𝑓𝛼 )∗ 𝜔𝛽 (𝑣1 , … , 𝑣𝑘 ) (3.6)

= 𝜔𝛽 (𝑑((𝑓𝛽−1 𝑜 𝑓𝛼 )(𝑣1 ), … , 𝑑(𝑓𝛽−1 𝑜 𝑓𝛼 )(𝑣𝑘 ))

= 𝜔𝛽 ((𝑑𝑓𝛽 𝑜 𝑑(𝑓𝛽−1 𝑜𝑓𝛼 )) (𝑣1 ), … , (𝑑𝑓𝛽 𝑜 𝑑(𝑓𝛽−1 𝑜𝑓𝛼 ))(𝑣𝑘 ))

= 𝜔𝛼 (𝑣1 , … , 𝑣𝑘 ).

Y tenemos la relación (𝑓𝛽−1 𝑜 𝑓𝛼 )∗ 𝜔𝛽 = 𝜔𝛼 , motivando la siguiente

definición.

Definición 3.1.13

Una 𝑘 −forma diferencial en una variedad diferenciable 𝑀𝑛 es una forma

exterior que posee representación diferenciable en algún sistema de

coordenadas.

Observación 3.1.3

Por las ecuaciones (3.5) y (3.6), y por la definición anterior, podemos

concluir que si una 𝑘 −forma exterior posee representación diferenciable

en algún sistema de coordenadas, entonces poseerá en todos.

De forma resumida observamos que, siendo ω una 𝑘 −forma diferenciable

en 𝑀𝑛 , entonces para una parametrización ( 𝑈𝛼 , 𝑓𝛼 ) de 𝑀𝑛 , 𝜔 es la

elegida de una 𝑘-forma deferencial 𝜔𝛼 𝑒𝑛 𝑈𝛼 , de forma que, para alguna

parametrización (𝑈𝛽 , 𝑓𝛽 ) de 𝑀𝑛 , con 𝑓𝛼 (𝑈𝛼 )⋂𝑓𝛽 (𝑈𝛽 ) ≠ 𝜙 se tiene

𝜔𝛼 = (𝑓𝛽−1 ° 𝑓𝛼 )∗ 𝜔𝛽 (3.7)

85
Afirmamos ahora que todas las consideraciones hechas al respecto de

formas diferenciables en ℝ𝑛 pueden ser entendidas para formas

diferenciables en una variedad diferenciable 𝑀𝑛 , tomando una

representación local.

De hecho, la diferencial de una 𝑘-forma en una variedad diferenciable

𝑀𝑛 está bien definida, pues por (3.7) se tiene

𝑑𝜔𝛼 = 𝑑(𝑓𝛽−1 ° 𝑓𝛼 )∗ 𝜔𝛽 = (𝑓𝛽−1 ° 𝑓𝛼 )∗ 𝑑𝜔𝛽 (3.8)

Definición 3.1.14

Una variedad diferenciable 𝑀 es orientable si posee una estructura

diferenciable {(𝑈𝛼 , 𝑓𝛼 )}, tal que para cada par 𝛼, 𝛽 con

𝑓𝛼 (𝑈𝛼 )⋂𝑓𝛽 (𝑈𝛽 ) ≠ 𝜙, la diferencial de cambio de coordenadas 𝑓𝛽−1 𝑜 𝑓𝛼 ;

posee determinante positivo. Caso contrario, 𝑀 es de hecho no

orientable.

3.2 TEOREMA DE STOKES

En esta sección, nuestro objetivo será la demostración del teorema de

Stokes en variedades compactas y orientables. Y por este motivo todas

las variedades consideradas a partir de ahora serán compactas y

orientables, salvo mención contraria. Para las primeras consideraciones,

limitaremos al caso en que 𝑀𝑛 = ℝ𝑛 , esto es, consideraremos la variedad

diferenciable n-dimensional (no compacta) ℝ𝑛 .

Definición 3.2.1

Sea 𝜔 una forma diferenciable definida en un conjunto abierto

𝑈 ⊂ 𝑀𝑛 , definimos el soporte 𝐾 de 𝜔 como el cierre del conjunto

86
𝐴 = {𝑝 𝜖 𝑀𝑛 /𝜔(𝑝) ≠ 0}.

Considerando 𝜔 una 𝑛-forma diferencial en ℝ𝑛 , entonces podemos

escribir 𝜔 como

𝜔 = 𝑎(𝑥1 , … , 𝑥𝑛 )𝑑𝑥1 ˄ … ˄𝑑𝑥𝑛 , (3.9)

y suponiendo que el soporte 𝐾 de 𝜔 sea compacto y este contenido en

𝑈, entonces definimos la integral de 𝜔 sobre 𝑈 por

∫ 𝜔 = ∫ 𝑎𝑑𝑥1 … 𝑑𝑥𝑛 ,
𝑈 𝐾

Donde el lado derecho de la igualdad se tiene una integral múltiple en ℝ𝑛 .

Observamos ahora la estrecha relación entre la integral de una 𝑛 − 𝑓𝑜𝑟𝑚𝑎

definida en ℝ𝑛 y una 𝑛 −forma definida en una variedad diferenciable

cualquiera de 𝑀𝑛 .

Consideremos ω una 𝑛 − forma definida en una variedad diferenciable

𝑀𝑛 , y suponga que el soporte 𝐾 de ω está contenido en alguna vecindad

coordenada 𝑉𝛼 = 𝑓𝛼 (𝑈𝛼 ). Entonces, siendo la representación local de

ω, 𝜔𝛼 en 𝑈𝛼 dada por

𝜔𝛼 = 𝑎𝛼 (𝑥1 , … , 𝑥𝑛 )𝑑𝑥1 ˄ … ˄𝑑𝑥𝑛 , (3.10)

y de esa forma podemos definir la integral

∫ 𝜔 = ∫ 𝜔𝛼 = ∫ 𝑎𝛼 𝑑𝑥1 … 𝑑𝑥𝑛 , (3.11)


𝑀 𝑉𝛼 𝑈𝛼

donde el lado derecho de la igualdad expresa una integral múltiple usual

en ℝ𝑛 .

Pero se debe tener en cuenta que para la validez de (3.11), tenemos que

demostrar que es independiente de la elección de una vecindad

87
coordenada en particular. En verdad para mostrar este resultado, será

fundamental nuestra hipótesis inicial de que 𝑀𝑛 es orientable, esto es, la

diferencial de cambio de coordenada posee determinante positivo. Tal

resultado será garantizado por el teorema que sigue.

Teorema 3.2.1

Sean 𝜔 una 𝑛-forma en 𝑀𝑛 , y 𝑓𝛼 , 𝑓𝛽 dos sistemas de coordenadas en 𝑀𝑛 .

entonces asumiendo que 𝑀𝑛 sea orientable, es válido la igualdad

∫ 𝜔𝛼 = ∫ 𝜔𝛽 .
𝑉𝛼 𝑉𝛽

Demostración:

Sean 𝜔𝛼 𝑦 𝜔𝛽 formas diferenciables en 𝑀𝑛 , con representaciones en

𝑈𝛼 𝑦 𝑈𝛽 , respectivamente, y vecindades coordenadas {𝑉𝛼 } 𝑦 {𝑉𝛽 }.

Consideremos el cambio de coordenadas 𝑓 = 𝑓𝛼−1 ° 𝑓𝛽 : 𝑈𝛼 → 𝑈𝛽 .

Haciendo

𝑥𝑖 = 𝑓𝑖 (𝑦𝑖 , … , 𝑦𝑛 ), 𝑖 = 1, … , 𝑛 𝑦 (𝑥1 , … , 𝑥𝑛 ) 𝜖 𝑈𝛼 , con (𝑦𝑖 , … , 𝑦𝑛 ) 𝜖 𝑈𝛽

y recordando que 𝜔𝛽 = 𝑓 ∗ (𝜔𝛽 ), obtenemos

𝜔𝛽 = det(𝑑𝑓) 𝑎𝛽 𝑑𝑦𝑖 ˄ … ˄𝑑𝑦𝑛 ,

donde 𝑎𝛽 = 𝑎𝛼 (𝑓1 (𝑦1 , … , 𝑦𝑛 ), … , 𝑓𝑛 (𝑦1 , … , 𝑦𝑛 )).

De esa forma el resultado se sigue por la fórmula de cambio de variables

en la integral múltiple en ℝ𝑛 , esto es,

∫ 𝑎𝛼 𝑑𝑥1 … 𝑑𝑥𝑛 = ∫ det(𝑑𝑓) 𝑎𝛽 𝑑𝑦1 … 𝑑𝑦𝑛 .


𝑈𝛼 𝑈𝛽

88
Pues por la hipótesis de que 𝑀𝑛 es orientable, se sigue que det(𝑑𝑓) > 0,

y por lo tanto

∫ 𝜔𝛼 = ∫ 𝜔𝛽 .
𝑉𝛼 𝑉𝛽

Observe que las consideraciones hechas al respecto de la integral de una

𝑛-forma en 𝑀𝑛 fueron todas hechas suponiendo que el soporte 𝐾 de 𝜔

estuviese contenido en alguna vecindad coordenada. Ahora vamos a

explorar el caso de que esto no ocurra.

Por tanto, considere una cobertura {𝑉𝛼 } para una variedad diferenciable

compacta 𝑀𝑛 . Iremos a construir una familia (finita) de funciones

𝜑1 , … , 𝜑𝑛 , que satisfacen las siguientes condiciones:


𝑚
(𝑝1 ) ∑ 𝜑𝑖 = 1 .
𝑖=1

(𝑝2 ) 0 ≤ 𝜑𝑖 ≤ 1, y el soporte de 𝜑𝑖 estará contenido en algún 𝑉𝛼𝑖 = 𝑉𝑖 .

Definición 3.2.2

La familia {𝜑𝑖 } que satisface las propiedades (𝑝1 ) 𝑦(𝑝2 ) , puestas

anteriormente, serán llamadas unidad de partición diferenciable, o

simplemente partición de la unidad, a la cobertura {𝑉𝛼 }

Lema 3.2.1

Existe una función diferenciable 𝜑: 𝐵3 (0) → ℝ tal que:

a) 𝜑(𝑝) = 1 𝑠𝑖 𝑝 𝜖 𝐵1 (0).

b) 0< 𝜑(𝑝) ≤ 1, 𝑠𝑖 𝑝 𝜖 𝐵2 (0).

c) 𝜑(𝑝) = 0, 𝑠𝑖 𝑝 𝜖 𝐵3 (0) − 𝐵2 (0).

Demostración: (véase [4]).

89
Lema 3.2.2

Sea 𝑀𝑛 una variedad diferenciable, 𝑝 𝜖 𝑀 y sea 𝑔: 𝑈 ⊂ ℝ𝑛 → 𝑀 una

parametrización alrededor de 𝑝 .entonces es posible obtener una

parametrización 𝑓: 𝐵3 (0) → 𝑀 alrededor de 𝑝 de tal manera que

𝑓(𝐵3 (0)) ⊂ 𝑔(𝑈) y que 𝑓 −1 (𝑝) = (0, … ,0).

Demostración (véase [4]).

Observación 3.2.1

De hecho, ahora no presentamos garantía de la existencia de una

unidad de partición diferenciable, entre tanto tal resultado es válido por el

teorema (3.2.2), que apenas enunciaremos.

Asumiendo la existencia de una familia {𝜑𝑖 }, entonces el soporte de la

forma 𝜑𝑖 𝜔 en una variedad 𝑀𝑛 está contenido en 𝑉𝑖 , para algún 𝑖, y por

las características de la familia {𝜑𝑖 }, tenemos la identidad


𝑚

∫ 𝜔 = ∑ ∫ 𝜑𝑖 𝜔. (3.12)
𝑀 𝑖=1 𝑀

Observe que para la valides de (3.13), precisamos garantizar que es

independiente. En efecto, considere otra cobertura {𝑊𝛽 }𝑑𝑒 𝑀, que induce

la misma orientación que la cobertura {𝑉𝛼 } , y sea {𝛹𝑗 } una partición de la

unidad subordinada al recubrimiento {𝑊𝛽 }.

Entonces {𝑉𝛼 ⋂𝑊𝛽 } recubría 𝑀, a la familia {𝜑𝑖 𝛹𝑗 } será una partición de la

unidad subordinada a ese recubrimiento. Asimismo,

90
𝑚 𝑚 𝑚

∑ ∫ 𝜑𝑖 𝜔 = ∑ ∫ 𝜑𝑖 (∑ 𝛹𝑗 )𝜔 = ∑ ∫ 𝜑𝑖 𝛹𝑗 𝜔, (3.13)
𝑖=1 𝑀 𝑖=1 𝑀 𝑖=1 𝑖𝑗 𝑀

Lo que nos garantiza que la validez de (3.13) no depende de las

decisiones tomadas, tanto al recubrimiento como la partición de la unidad

subordinada de ella.

3.2.1 EXISTENCIA DE LA PARTICION DE UNIDAD DIFERENCIABLE

Teorema 3.2.2

Sean 𝑀𝑛 una variedad diferenciable compacta y orientable, y {𝑉𝛼 } una

cobertura de 𝑀𝑛 por vecindades coordenadas. Entonces existen

funciones diferenciables 𝜑1 … 𝜑𝑚 , tales que,


𝑚
(𝑝1 ) ∑ 𝜑𝑖 = 1 .
𝑖=1

(𝑝2 ) 0 ≤ 𝜑𝑖 ≤ 1, Y el soporte de 𝜑𝑖 está contenido en algún 𝑉𝛼𝑖 de la

cobertura {𝑉𝑖 }.

Demostración.

Para cada 𝑝 𝜖 𝑀 considere la parametrización 𝑓𝑝 : 𝐵3 (0) → 𝑀 dado por el

Lema 3.2.2 con 𝑓𝑝 (𝐵3 (0) = 𝑉𝑝 ⊂ 𝑉𝛼 para algunos 𝑉𝛼 de la cobertura { 𝑉𝛼 }.

Sea el Conjunto 𝑊𝑝 = 𝑓𝑝 (𝐵1 (0)) ⊂ 𝑉𝑝 .

La familia { 𝑊𝑝 } es una cobertura abierta de M. ya que M es compacto,

podemos seleccionar de ella un recubrimiento finito 𝑊1 , … , 𝑊𝑚 .

El correspondiente 𝑉1 , … , 𝑉𝑚 formará una cubierta de M.

Definamos funciones 𝜃𝑖 : 𝑀 → ℝ, 𝑖 = 1, … 𝑚, con

𝜃𝑖 = 𝜑 ° 𝑓𝑖−1 en 𝑉𝑖 ; 𝜃𝑖 = 0 en 𝑀 − 𝑉𝑖 ,

91
donde 𝜑: 𝐵3 (0) → ℝ es una función dada por el Lema 3.2.1. Las

funciones 𝜃𝑖 son diferenciables y el soporte de 𝜃𝑖 es contenido en 𝑉𝑖 .

Finalmente definir 𝜑𝑖 por

𝜃𝑖 (𝑝)
𝜑𝑖 (𝑝) =
∑𝑚
𝑗=1 𝜃𝑗 (𝑝)

de donde es inmediato comprobar que las funciones 𝜑𝑖 así construidas

satisfacen las condiciones (𝑝1 ) 𝑦 (𝑝2 ).

Para las consideraciones posteriores precisaremos definir un tipo

especial de variedad, llamada variedad diferenciable con frontera, y para

eso necesitamos de la definición de semi-espacio en ℝ𝑛 .

Definición 3.2.3

Llamase semi-espacio en ℝ𝑛 al conjunto

𝐻 𝑛 = {(𝑥1 , … , 𝑥𝑛 )𝜖 ℝ𝑛 |𝑥1 ≤ 0}.

Diremos que una función 𝑓: 𝑉 → ℝ, definida en un abierto 𝑉 ⊂ 𝐻 𝑛 es

diferenciable, si existen un conjunto 𝑈 ⊂ ℝ𝑛 que contiene 𝑉 , y una

función diferenciable 𝑓 ̅ en 𝑈, tal que la restricción de 𝑓 ̅ 𝑎 𝑉 sea igual a 𝑓.

En este caso, la diferencial 𝑑𝑓𝑝 , de 𝑓 en 𝑝 𝜖 𝑉, es definida como

𝑑𝑓𝑝 = 𝑑𝑓𝑝.̅ (3.14)

Definición 3.2.4

Una variedad diferenciable 𝑛 −dimencional con frontera es un conjunto 𝑀,

provisto de una familia de aplicaciones inyectivas 𝑓𝛼 : 𝑈𝛼 ⊂ 𝐻 𝑛 → 𝑀, de

abiertos de 𝐻 𝑛 𝑒𝑛 𝑀 tales que,

(𝑚1′ ) ⋃ 𝑓𝛼 (𝑈𝛼 ) = 𝑀
𝛼

92
(𝑚2′ ) Para todo par α, β con 𝑓𝛼 (𝑈𝛼 )⋂𝑓𝛽 (𝑈𝛽 ) = 𝑊 ≠ 𝜙, los conjuntos

𝑓∝−1 (𝑊) 𝑦 𝑓𝛽−1 (𝑊) son abiertos de 𝐻 𝑛 , y las aplicaciones 𝑓𝛽−1 °𝑓𝛼 , 𝑓∝−1 ° 𝑓𝛽

son diferenciables. (FIG. 1).

𝑓𝛼 (𝑈𝛼 ) 𝑓𝛽 (𝑈𝛽 )
)
=))
M

𝑓𝛼 𝑓𝛽

𝑈𝛼
𝑓𝛽−1 ° 𝑓𝛼

𝑈𝛽
𝑓𝛼−1 (𝑊) 𝑓𝛽−1 (𝑊)

FIG: 1

(𝑚3′ ) La familia {(𝑈𝛼 , 𝑓𝛼 )} es maximal con relación a (𝑚1′ ) 𝑦 (𝑚2′ ).

Definición 3.2.5

Un punto 𝑝 de una variedad diferenciable 𝑀𝑛 es de hecho un punto de

frontera de 𝑀, si para alguna parametrización 𝑓: 𝑈 ⊂ 𝐻 𝑛 → 𝑀 en alguna

vecindad de 𝑝, se tiene 𝑓(0, 𝑥2 , … , 𝑥𝑛 ) = 𝑝.

93
Para que la definición anterior de punto de frontera de una variedad tenga

sentido, precisamos garantizar que es independiente de la

parametrización utilizada. Y tal resultado es exhibido por el siguiente

teorema.

Teorema 3.2.3

La definición de punto de frontera no depende de la parametrización.

Demostración:

Sea 𝑓1 : 𝑈2 → 𝑀 una parametrización en una vecindad de 𝑝, de forma que

𝑓1 (𝑞) = 𝑝, 𝑐𝑜𝑛 𝑞 = (0, 𝑥2 , … , 𝑥𝑛 ).

Supongamos por el absurdo que existe otra parametrización 𝑓2 : 𝑈2 → 𝑀,

en una vecindad de 𝑝, tal que 𝑓2−1 (𝑝) = 𝑞2 = (𝑥1 , … , 𝑥𝑛 ),

con 𝑥1 ≠ 0. (fig. 2).

Sea 𝑊 = 𝑓1 (𝑈1 )⋂𝑓2 (𝑈2 ). Tenemos entonces la aplicación

𝑓1−1 °𝑓2 : 𝑓2−1 (𝑊) → 𝑓1−1 (𝑊),

𝜕𝑀
𝑀
𝑈1 𝑓1
p
𝑞
𝑈2

𝑓2 𝑉 𝑞2

𝑥1

𝑓 −1 ° 𝑓2 𝑥1

-Fig 2-

94
Que será un difeomorfismo, esto es, biyectiva, diferenciable y que posee

inversa también diferenciable.

Como suponemos 𝑥1 ≠ 0, existirá una vecindad 𝑈 𝑑𝑒 𝑞2 , 𝑈 ⊂ 𝑓2−1 (𝑊),

que no corta al eje 𝑥1 , y restringiendo 𝑓1−1 °𝑓2 𝑎 𝑈, tenemos ahora un

difeomorfismo, dado por

𝑓1−1 ° 𝑓2 : 𝑈 → 𝐻 𝑛 ,

y además, det(𝑑(𝑓1−1 ° 𝑓2 )) ≠ 0.

Finalmente, por el teorema de la función inversa, podemos garantizar que

la aplicación

𝑓1−1 ° 𝑓2 : 𝑉 ⊂ 𝑈 → 𝑈1 ⊂ 𝐻 𝑛 ,

será un difeomorfismo lo que nos lleva a una contradicción, una vez que

esto se hizo se verifica tendremos puntos de la forma

(𝑥1 , … , 𝑥𝑛 ) con 𝑥1 > 0, Siendo llevados en 𝐻 𝑛 por 𝑓1−1 ° 𝑓2 .

Por tanto garantizamos que 𝑝 será un punto de frontera incluso con otra

parametrización.

Definición 3.2.6

Siendo 𝑀𝑛 una variedad diferenciable, denotamos por 𝜕𝑀 al conjunto de

puntos de frontera de 𝑀𝑛 , llamado simplemente la frontera de 𝑀.

Observación 3.2.2

Si 𝜕𝑀 = 𝜙, entonces la variedad no posee frontera, y por lo tanto es

definida de acuerdo con la definición (3.1.2).

Teorema 3.2.4

La frontera 𝜕𝑀 de una 𝑛 −variedad diferenciable 𝑀 con frontera, es una

(𝑛 − 1) −Variedad diferenciable.
95
Demostración:

Tomamos un punto p 𝜖 𝜕𝑀, y considere la parametrización

𝑓𝛼 : 𝑈𝛼 ⊂ 𝐻 𝑛 → 𝑀𝑛 , en alguna vecindad de 𝑝.

De esa forma 𝑓𝛼 −1 (𝑝) = (0, x2 , … , x𝑛 ) llamando

̅̅̅̅
𝑈𝛼 = 𝑈𝛼 ⋂{(𝑥1 , … , 𝑥𝑛 )}𝜖ℝ𝑛 /𝑥1 = 0},

Podemos observar que ̅̅̅̅


𝑈𝛼 será un abierto en ℝ𝑛−1 . Basta entonces

considerar 𝑓𝛼̅ una restricción de 𝑓𝛼 𝑎 ̅̅̅̅


𝑈𝛼 𝑦, por el teorema (3.2.3), se sigue

𝑈𝛼 ) ⊂ 𝜕𝑀. y además la familia ̅̅̅̅̅̅


que 𝑓𝛼̅ ( ̅̅̅̅ {(𝑈𝛼 , 𝑓𝛼̅ )} será una estructura

diferenciable en 𝜕𝑀.

96
DISCUSIONES

Finalmente, con las definiciones y resultados anteriores, podemos enunciar y

probar el teorema de Stokes en una variedad.

Teorema 3.2.5 (Teorema de Stokes)

Sean 𝑀𝑛 una variedad diferenciable con borde, compacta y orientable, 𝜔 una

(𝑛 − 1) − forma diferenciable en 𝑀 e 𝑖: 𝜕𝑀 → 𝑀 una aplicación 𝑖nclusión3 .

Entonces

∫ 𝑖 ∗ 𝜔 = ∫ 𝑑𝜔.
𝜕𝑀 𝑀

Demostración:

Consideremos 𝐾 el soporte de 𝜔, y vamos a dividir la demostración en dos

casos:

CASO A.

Si 𝐾 está contenido en alguna vecindad coordenada 𝑉 = 𝑓(𝑈) de una

parametrización 𝑓: 𝑈 ⊂ 𝐻 𝑛 → 𝑀, entonces tomando la representación local de

𝜔 en 𝑈, tenemos
𝑛
̂𝑗 ˄ … 𝑑𝑥𝑛 ,
𝜔 = ∑ 𝑎𝑗 𝑑𝑥1 ˄ … ˄𝑑𝑥
𝑗

(3) Se trata simplemente de una aplicación de la forma 𝒊(𝒙) = 𝒙 y el nombre que se incluye

es por el hecho de que 𝝏𝑴 ⊂ 𝑴.

97
̂𝑗
Donde 𝑎𝑗 = 𝑎𝑗 (x1 , … , x𝑛 ) es una función diferenciable en 𝑈, y la notación 𝑑x

significa que el término 𝑑x𝑗 está siendo omitido.

Asimismo, la diferencial 𝑑𝜔 obtiene la forma

𝑛
𝜕𝑎𝑗
𝑑𝜔 = ∑ 𝑑𝑎𝑗 ˄𝑑𝑥𝑗 = (∑(−1)𝑗−1 ) 𝑑𝑥1 ˄ … ˄𝑑𝑥𝑛 .
𝜕𝑥𝑗
𝑗=1 𝑗

Ahora observe que podemos subdividir el caso A en dos subcasos, uno para

el caso en que 𝑓(𝑈)⋂ 𝜕𝑀 = 𝜙 y otro para cuando 𝑓(𝑈)⋂ 𝜕𝑀 ≠ 𝜙.

𝑨𝟏 ) Si consideramos 𝑓(𝑈)⋂ 𝜕𝑀 = 𝜙, entonces el valor de ω será cero en 𝜕𝑀,

y consecuentemente 𝑖 ∗ 𝜔 también se anularan en 𝜕𝑀. Por tanto

∫𝜕𝑀 𝑖 ∗ 𝜔 = 0.

En efecto si 𝑈⋂𝑀 = 𝜙, porque soporte(𝑑𝜔) ⊂ soporte(𝜔) ⊂ 𝑈. En otro caso

𝑈 ⊂ 𝐼𝑛𝑡(𝑀), Luego

∫ 𝑑𝜔 = ∫ 𝑑𝜔,
𝑈 𝑀

que se anula por el teorema 3.2.5.

Por otro lado, extendiendo la definición de 𝑎𝑗 𝑒𝑛 𝐻 𝑛 , por

𝑎𝑗 (x1 , … , x𝑛 ) = 𝑎𝑗 (x1 , … , x𝑛 ) 𝑠𝑖 (x1 , … , x𝑛 ) 𝜖 𝑈


{
𝑎𝑗 (x1 , … , x𝑛 ) = 0, 𝑠𝑖 (x1 , … , x𝑛 )𝜖 𝐻 𝑛 − 𝑈

Tenemos 𝑓 −1 (𝐾) ⊂ 𝑈, 𝑌 𝑎𝑗 es diferenciable en 𝐻 𝑛 .

Considere entonces 𝑄 ⊂ 𝐻 𝑛 un paralelepípedo, definido por

x𝑗1 ≤ x𝑗 ≤ x𝑗0 , 𝑗 = 1, … , 𝑛

y que contenga 𝑓 −1 (𝐾) en su interior. Asimismo,

98
𝑄 𝑄

𝑂 𝑥1 𝑂 𝑥1

𝑓 −1 (𝐾)
𝑈 𝑈

𝑓 −1 (𝐾)

𝐶𝐴𝑆𝑂 𝐴1 𝐶𝐴𝑆𝑂 𝐴2

𝜕𝑎𝑗
∫ 𝑑𝜔 = ∫ (∑(−1)𝑗−1 ) 𝑑𝑥1 … 𝑑𝑥𝑛
𝑈 𝑈 𝜕𝑥𝑗
𝑗

= ∑(−1)𝑗−1 ∫ [ 𝑎𝑗 (𝑥1 , … , 𝑥𝑗−1 , 𝑥𝑗0 , 𝑥𝑗+1 , . . 𝑥𝑛 )


𝑗 𝑄

̂𝑗 … 𝑑𝑥𝑛 = 0,
− 𝑎𝑗 (𝑥1 , … , 𝑥𝑗−1 , 𝑥𝑗1 , 𝑥𝑗+1 , . . 𝑥𝑛 )]𝑑𝑥1 … 𝑑𝑥

Pues 𝑎𝑗 (𝑥1 , . . 𝑥𝑗0 , … 𝑥𝑛 ) = 𝑎𝑗 (𝑥1 , … , 𝑥𝑗1 , … 𝑥𝑛 ) = 0, para todo 𝑗 = 1, … 𝑛.

Y por tanto,

∫ 𝑖 ∗ 𝜔 = ∫ 𝑑𝜔.
𝜕𝑀 𝑀

𝑨𝟐 ) Si ponemos, 𝑓(𝑈)⋂ 𝜕𝑀 ≠ 𝜙, entonces la aplicación 𝑖 puede ser escrita

𝑥1 = 0
como: 𝑖 = {𝑥 = 𝑥 , 𝑠𝑖 𝑗 ≠ 1
𝑗 𝑗

y usando la orientación inducida en 𝜕𝑀, tenemos

𝑖 ∗ 𝜔 = 𝑎1 (0, 𝑥2 , … , 𝑥𝑛 )𝑑𝑥2 ˄ … ˄𝑑𝑥𝑛 .

Extendiendo nuevamente 𝑎𝑗 𝑎 𝐻 𝑛 , y considerando el paralelepípedo 𝑸 dado

por

99
𝑥11 ≤ 𝑥1 ≤ 0; 𝑥𝑗1 ≤ 𝑥𝑗 ≤ 𝑥𝑗0 , 𝑗 = 1 … 𝑛,

De forma que la unión de 𝑸 con el hiperplano 𝑥1 = 0 contenga 𝑓 −1 (𝐾).

Entonces,
𝑛
𝜕𝑎𝑗
∫ 𝑑𝜔 = ∑(−1)𝑗−1 ∫ 𝑑𝑥 … 𝑑𝑥𝑛 =
𝑀 𝑄′ 𝜕𝑥𝑗 1
𝑗=1

∫ [ 𝑎1 (0, 𝑥2 , … , 𝑥𝑛 ) − 𝑎1 (𝑥11 , 𝑥2 , … 𝑥𝑛 )]𝑑𝑥2 … 𝑑𝑥𝑛


𝑄′

+ ∑ ∫ [𝑎𝑗 (𝑥1 , . . , 𝑥𝑗0 , … 𝑥𝑛 ) −



𝑗=2 𝑄

̂𝑗 … 𝑑𝑥𝑛 .
−𝑎𝑗 (𝑎1 , … , 𝑎𝑗1 , … , 𝑥𝑛 )]𝑑𝑥1 … 𝑑𝑥

Y como 𝑎𝑗 (𝑥1 , … 𝑥𝑗0 , … 𝑥𝑛 ) = 𝑎𝑗 (𝑥1 , … 𝑥𝑗1 , … 𝑥𝑛 ) = 0,

para 𝑗 = 2, … , 𝑛 𝑦 (𝑥11 , 𝑥2 , … 𝑥𝑛 ) = 0, tenemos

∫ 𝜔 = ∫ 𝑎1 ( 0, 𝑥2 , … , 𝑥𝑛 )𝑑𝑥2 … 𝑑𝑥𝑛 = ∫ 𝑖 ∗ 𝜔.
𝑀 𝜕𝑀

Garantizada la validez del teorema en estas condiciones.

CASO B.

Veamos ahora el caso general. Vamos a utilizar la construcción de una

partición de la unidad diferenciable para la demostración.

Sea {𝑉𝛼 } una cobertura de 𝑀 por vecindades coordenadas, compatibles con

la orientación en 𝑀. Tome 𝜑1 , … , 𝜑𝑚 una partición de la unidad diferenciable

subordinada al recubrimiento {𝑉𝛼 }.

Observando que las formas 𝜔𝑗 = 𝜑𝑗 𝜔, 𝑗 = 1, … , 𝑚 satisfacen las condiciones

del primer caso considerado (caso A), y que

100
∑ 𝑑𝜑𝑗 = 0,
𝑗

∑ 𝜔𝑗 = 𝜔 𝑦 ∑ 𝑑𝜔𝑗 = 𝑑𝜔.
𝒋 𝑗

Y por tanto,
𝑚 𝑚

∫ 𝑑𝜔 = ∑ ∫ 𝑑𝜔𝑗 = ∑ ∫ 𝑖 ∗ 𝜔𝑗 = ∫ 𝑖 ∗ ∑ 𝜔𝑗 = ∫ 𝑖 ∗ 𝜔.
𝑀 𝑗=1 𝑀 𝑗=1 𝜕𝑀 𝜕𝑀 𝑗 𝜕𝑀

101
CONCLUSIONES

I. Los resultados específicos del análisis en variedades también pueden ser

una buena manera de continuación de lo expuesto. Conceptos como

inmersión, que motivan varios teoremas fundamentales para este tipo de

análisis. Por ejemplo, analizar bajo qué condiciones una variedad

diferenciable puede ser sumergido en un espacio euclidiano.

II. Una extensión de esto también será capaz de hacerse teniendo en cuenta

los teoremas presentados, como por ejemplo la interpretación del flujo

eléctrico, que implica integrales de superficie, conocida como Ley de Gauss,

además de muchas otras interpretaciones físicas posibles.

III. También sería posible una revisión del capítulo I, incluyendo el lenguaje de

formas diferenciales, introducido solo en el capítulo 2. Con ellos podría ser

visto más claramente la relación intrínseca de los resultados del capítulo 1 con

los de la sección 3.2. Tratándose los resultados del capítulo 1 de los casos

particulares de la sección 3.2, considerando superficies regulares como

variedades diferenciables de dimensión 2, y las formas

𝜔 = 𝑃𝑑𝑥 + 𝑄𝑑𝑦 Como 1-formas en ℝ3 .

IV. En este trabajo vemos la generalización de los teoremas de

𝐺𝑟𝑒𝑒𝑛 𝑦 𝑆𝑡𝑜𝑘𝑒𝑠 para variedades compactas orientables, lo que nos

proporciona una visión más amplia de los teoremas del cálculo básico.

V. Se observa que este teorema proporciona una generalización hasta incluso

para el teorema fundamental del cálculo en su forma clásica, con las funciones

de una variable en ℝ.

102
VI. Un procedimiento de esta monografía se podría hacer mediante el estudio

del teorema de Stokes para aplicaciones en variedades singulares, lo que no

se ha hecho en este trabajo, porque hay una gran aplicabilidad de estos

resultados en muchas áreas, tanto en matemática pura como la aplicada.

103
SUGERENCIAS

Para que la lectura de este trabajo sea comprensible, se sugiere una revisión

sobre funciones diferenciables de varias variables y también topología en

espacios euclidianos, en los cuales se encuentran definiciones y

consideraciones con respecto a los espacios compactos, pues tales

resultados son admitidos en el capítulo 3, principalmente cuando tratamos las

llamadas particiones diferenciables de la unidad y variedades compactas,

usadas en la demostración del teorema de Stokes.

Tras ver que el resultado engloba todas las versiones clásicas del teorema de

stokes, se podrán dar otras interesantes aplicaciones, como el teorema de

punto fijo de brouwer para aplicaciones diferenciables de una bola cerrada en

sí misma.

104
REFERENCIAS BIBLIOGRÁFICAS

[1]. Apostol, T.; 1969; Cálculus, Volumen II; New York: Jhon Wiley.

[2]. Cartan, E.; 1945; Les Systemes Différentiels Extérieurs et leurs

Applications Géométriques; Hermann.

[3]. Do Carmo, M. P.; 2008; Geometría Diferencial de curvas y superficies;

Rio de Janeiro: SBM.

[4]. Do Carmo, M. P.; 1994; Differential Forms and Applications; Germany:

Springer – Verlag.

[5]. Katz, V. J.; 1979; The History of Stokes Theorem; Mathematics Magazine.

[6]. Lima, E. L.; 2009; Algebra Exterior; Rio de Janeiro: IMPA.

[7]. Lima, E. L.; 1970; Elementos de topología general. Rio de janeiro: Libro

técnico.

[8]. Lima, E. L.; 2009; Espacios Métricos; Rio de Janeiro: IMPA.

[9]. Ostrogradsky, M.; 1965; Demonstration d´un théorem du calcul intégral;

Istoriko-Matematicheskie Issledovania.

[10]. Ralph Abraham; J.E. Mardens, T. Ratiu Manifolds. Tensor; 1983;

Analysis and Applications: Eddisson Wesley, Publishing Company; Inc.

Massachussets.

[11]. Spivak, M.; 1979; Differential Geometry, Vol I; Publish or Perish, Inc.

Berkeley.

[12]. Spivak, M.; 1988; Cálculo en Variedades; Benjamin Inc. New York.

[13]. Stokes, G. G.; 1905; Mathematical and Physical Papers; Cambridge

University Press.

105
106

Das könnte Ihnen auch gefallen