Sie sind auf Seite 1von 50

Home Page

Capítulo 1 Title Page

Introducción al análisis tensorial Contents

JJ II

J I

Page 1 of 50

Go Back

Full Screen

Close

Quit
1.1. Notación indicial
La suma
s = a1 x1 + a2 x2 + · · · + an xn (1.1)
puede escribirse en una forma más compacta usando el signo de suma Home Page

n
X
s= a i xi , (1.2) Title Page
i=1

o también
n n n
X X X Contents
s= aj xj , s= ak xk , s= aq xq ,
j=1 k=1 q=1

pues el índice empleado con el signo de suma es un índice mudo, en el sentido de que la suma es independiente de la letra utilizado para JJ II
indizarla.
La suma en (1.2) puede simplificarse aún más utilizando la notación de indices, también conocida como Notación Suma de Einstein
(Referencia a Einstein 1903), que se rige bajo la convención: J I
Cuando un índice aparezca repetido en un término, debe entenderse que se ejecuta una suma sobre el término en cuestión. Dicha
suma es llevada a cabo variando el índice sobre todo su rango.
Page 2 of 50
Usando esta convención la suma en (1.1) se escribe como
s = ai xi ,
Go Back
que atendiendo a la observación de que los índices de una suma son mudos, también puede escribirse como
s = aj xj , s = ak xk , s = aq xq .
Full Screen
La notación suma también puede utilizarse para denotar una doble suma:
3
3 X
X Close
α= aij xi xj = aij xi xj , (1.3)
i=1 j=1

Quit
o también una triple suma
X 3 X
3 X 3
β= aijk xi xj xk .
i=1 j=1 k=1
Home Page
1.1.1. Índices libres
El sistema de ecuaciones Title Page

x01 = a11 x1 + a12 x2 + a13 x3 ,


x02 = a21 x1 + a22 x2 + a23 x3 , (1.4) Contents

x03 = a31 x1 + a32 x2 + a33 x3 ,

puede escribirse utilizando notación suma JJ II

x01 = a1j xj ,
x02 = a2j xj , J I
x03 = a3j xj
Page 3 of 50
que a su vez puede ser simplificado utilizando la notación

x0i = aij xj . (1.5)


Go Back
Un índice que aparece sólo una vez en un término se le llama ´índice libre. A menos que sea especificado de otra forma, se asumirá
que el índice toma valores en el conjunto {1, 2, 3}. Por ello, la ecuación (1.5) representa una abreviación del sistema de ecuaciones (1.5).
Una expresión como Full Screen
ai = bj
carece de sentido. El índice libre que aparece en cada término debe ser el mismo. Por ejemplo en Close

ai + ki = ci ai + bi cj dj = fi ,
Quit
se representan dos conjuntos de 3 ecuaciones cada uno. El segundo conjunto tiene 4 términos del lado izquierdo.
Una ecuación en la que aparecen dos índices libre, como
Tij = aim ajm ,
Home Page
representa un conjunto de nueve ecuaciones, cada uno con 3 términos en el lado derecho:
T11 = a1m a1m = a11 a11 + a12 a12 + a13 a13 ,
Title Page
T12 = a1m a2m = a11 a21 + a12 a22 + a13 a23 ,
T13 = a1m a3m = a11 a31 + a12 a32 + a13 a33 ,
.. Contents
.
T33 = a3m a3m = a31 a31 + a32 a32 + a33 a33 .
JJ II
1.1.2. Delta de Kronecker
La delta de Kronecher de denota por δij y se define como J I

δij = 1 si i = j
= 0 si i 6= j. Page 4 of 50

es la matriz identidad!!
Go Back

1.1.3. Manipulaciones de la notación indicial


1.1.3.1. Contracción Full Screen

Repetir el mismo índice en un término se le conoce como contracción. Una contracción indica que se debe realizar una suma sobre
ése índice. Por ejemplo Tii es la contracción de Tij en el siguiente sentido Close

Tii = T11 + T22 + T33.


Quit
1.1.3.2. Sustitución
Si
ai = Uim bm bi = Vim cm ;
entonces, en orden de sustituir bi en Eq. (ii) en bm in Eq. (i), se debe arreglar primero los índices de i a m Home Page

bm = Vmn cn
Title Page
de donde
ai = Uim Vmn cn
Contents
la ecuación anterior representa tres ecuaciones, cada una tiene una suma de nueve términos en su lado derecho.

1.1.3.3. Multiplicación JJ II
Si
p = am bm q = cm dm J I
entonces:
pq = am bm cn dn .
Page 5 of 50
Es importante notar que pq 6= am bm cm dm . De hecho, el lado derecho de esta expresión ni siquiera está definida en términos de
notación suma.
Go Back
1.1.3.4. Factorización
Si se tiene una ecuación del tipo Full Screen
Aij nj − λni = 0,
es posible factorizar al nj utilizando la delta de Kronecker. Notando que ni = δij nj y sustituyéndolo en la ecuación anterior se tiene que
Close

Aij nj − λδij nj = 0
Quit
por lo que
(Aij − λδij ) nj = 0

Home Page

Title Page

Contents

JJ II

J I

Page 6 of 50

Go Back

Full Screen

Close

Quit
1.2. Tensores como una transformación lineal
Definición 1.1. Sean V y U dos espacios vectoriales sobre el campo R. Una transformación T : V → U se dice que es una transformación
lineal si para cualesquiera vectores ab ∈ V y para cualquier escalar α ∈ R se cumple que
Home Page
T (a + b) = Ta + Tb, (1.6)
T (αa) = αTa. (1.7)
Title Page
En este caso, a la transformación T se le llamará tensor de segundo rango (orden).

Observación. Las condiciones (1.6) y (1.7) suelen sustituirse por una única condición equivalente: Contents

T (αa + βb) = αTa + βTb. (1.8)


JJ II
Ejemplo 1.1. Sea T una transformación que asigna a cada vector un vector fijo n0 diferente del vector nulo. ¿Es T una transformación
lineal?
J I
Solución. Sean a y b dos vectores en el espacio vectorial V y sea α ∈ R un escalar. Para verificar que se trata de una transformación
lineal debemos verificar que se satisfacen las condiciones (1.6) y (1.7).
Lado derecho (Ld) de (1.6): Page 7 of 50
T (a + b) = n0 . (1.9)
Lado izquierdo (Li) de (1.7): Go Back
Ta + Tb = n0 + n0 = 2n0 . (1.10)
Para que se satisfaga la condición de homogeneidad (1.6), es necesario que se de una igualdad entre las ecuaciones (1.9) y (1.10).
Full Screen
Evidentemente no se da, a menos que n0 sea el vector nulo. Como no se satisfizo la primera condición ya no es necesario verificar la
segunda y podemos asegurar que la transformación T NO es lineal.
Close
Ejemplo 1.2. Sea T una transformación que asigna a cada vector un múltiplo de él mismo. Es decir sea T definido por Ta = κa para
cualquier elemento del espacio vectorial V . ¿Es un tensor esta transformación?
Quit
Solución. Sean a y b vectores arbitrarios y sean α y β escalares arbitrarios. Entonces, por la definición de T

T (αa + βb) = κ (αa + βb) = καa + κβb = ακa + βκb = αTa + βTb.

Por lo que T es una transformación lineal, es decir un tensor. Home Page


Si κ = 0, T transforma todos los vectores en un único vector, el vector nulo. Este tensor se le conoce como el tensor nulo o el tensor
cero.
Title Page
1.2.1. Las componentes de un tensor
Del mismo modo que con los vectores, las componentes de un tensor dependen de la base que se utilice. Contents
Sean e1 , e2 , e3 , una base de un espacio vectorial tridimensional1 V . Sea T : V → V , un tensor. Bajo el tensor T, la base es transformada
en los vectores Te1 , Te2 , Te3 , respectivamente. Estos nuevos vectores pueden ser representados en términos de la base como sigue
JJ II
Te1 = T11 e1 + T21 e2 + T31 e3 ,
Te2 = T12 e1 + T22 e2 + T33 e3 , (1.11)
J I
Te3 = T13 e1 + T23 e2 + T33 e3 ,

donde los Tij son escalares. En notación de índices, la ecuación (1.11) se escribe como:
Page 8 of 50

Tei = Tij ej .

Los escalares Tij se les conoce como componentes del tensor T en la base {ei } (es decir, dependen de la base elegida). Estas componentes Go Back
pueden ser arregladas en la matriz  
T11 T12 T13
[T ] = T21 T22 T23  , Full Screen

T31 T32 T33


que es conocida como la representación matricial del tensor T o simplemente como la matriz del tensor T. Close
1 El presente desarrollo puede ser generalizado fácilmente a un espacio vectorial de dimensión n

Quit
Observación. Supongamos que la base proporcionada es la base canónica
     
1 0 0
e1 = 0 , e2 = 1 , e3 = 0 .
0 0 1
Home Page
Dado que el tensor T tiene una representación matricial, la forma en la que eligió nombrar a los elementos Tij en (1.11) permite seguir
utilizando la notación matricial en la forma usual es decir:
    
T11 T12 T13 1 T11 Title Page
[T ] e1 = T21 T22 T23  0 = T21  = T11 e1 + T21 e2 + T31 e3 ,
T31 T32 T33 0 T31
     Contents
T11 T12 T13 0 T12
[T ] e2 = T21 T22 T23  1 = T22  = T12 e1 + T22 e2 + T32 e3 ,
T31 T32 T33 0 T32
     JJ II
T11 T12 T13 0 T13
[T ] e1 = T21 T22 T23  0 = T23  = T13 e1 + T23 e2 + T33 e3 .
T31 T32 T33 1 T33 J I

Observación. Debe notarse también que la primer columna de la matriz de T está formada por las componentes del vector Te1 . La segunda
columna por las componentes de Te2 y la tercera por las de Te3 . Page 9 of 50

Ejemplo 1.3. Obtener la matriz de la transformación siguiente


Te1 = 4e1 + e2 , Go Back

Te2 = 2e1 + 3e3,


Te3 = −e1 + 3e2 + e3 . Full Screen

Ejemplo 1.4. Sea T una transformación que refleja el espacio vectorial con respecto al plano normal a e1 .
Solución. La transformación T está dada por Close

Te1 = −e1 , Te2 = e2 , Te3 = e3 .


Quit
1.2.2. Componentes de un vector transformado
Sean V un espacio vectorial definido sobre el campo C, a, b ∈ V dos vectores y T : V → V un tensor. Supongamos que Ta = b. Las
componentes de b pueden ser obtenidas a partir de las componentes de a como sigue:
Sea {ei } una base de V . Entonces Home Page

a = a1 e1 + a2 e2 + a3 e3 = ai ei ,
b = b1 e1 + b2 e2 + b3 e3 = bi ei . Title Page

Observación. Conviene notar que


b1 = b · e1 ,
Contents
y en general que
bi = b · ei
JJ II
Por otro lado, se tiene que b = Ta, por lo que

b = T (a1 e1 + a2 e2 + a3 e3 ) = a1 Te1 + a2 Te2 + a3 Te3 .


J I
Entonces
b1 = b · e1 = e1 · T (a1 e1 + a2 e2 + a3 e3 ) = a1 (e1 · Te1 ) + a2 (e1 · Te2 ) + a3 (e1 · Te3 )
Page 10 of 50
y en general
bi = b · ei = ei · Tak ek = ak (ei · Tek ) = ak Tik
Go Back
es decir
Tik ak = bi .
Full Screen
1.2.3. Suma de tensores
Sea T, S : V → V dos tensores. La suma de T y S, denotada por T + S, se define como Close

(T + S) a = Ta + Sa, (1.12)
Quit
para cualquier vector a ∈ V .
Se demuestra fácilmente que la suma definida en (1.12) es un tensor, llamado tensor suma.
Si T + S = W, las componentes de la suma son

Wij = ei · (T + S) ej = ei · Tej + ei · Sej = Tij + Sij . Home Page

Si los tensores T y S se representan en notación matricial, es fácil ver que


Title Page
[W] = [T] + [S] ,

lo que es consistente con la suma de matrices. Contents

1.2.4. Producto de tensores JJ II


Sean T, S : V → V tensores y sea a un vector arbitrario. El producto TS está definido como

(TS) a = T (Sa) , J I

se puede demostrar fácilmente que también es un tensor.


Page 11 of 50
Si W = TS,sus componentes están dadas por:

Wij = ei · (TS) ej = ei · T (Sej ) = ei · TSmj em = Smj ei · Tem = Smj Tim = Tim Smj .
Go Back

En términos de su representación matricial, el producto de tensores [TS] puede expresarse como


Full Screen
[TS] = [T] [S] .

Si T, S y V son tensores, es posible aplicar varias veces la definición para obtener


Close

(TSV) = T (SV) ,
Quit
sin embargo, también se tiene que
TSV = (TS) V.
Es decir, el producto de tensores es asociativo. Por lo que podemos definir potencias de números naturales de un tensor como
Home Page
T2 = TT, T3 = TTT, ··· , Tn = T
| ·{z
· · T}.
n−veces
Title Page
Ejemplo 1.5. Sea B un sistema de referencia cartesiano en el espacio euclidiano R3 . Sean T una transformación que rota a B 90◦ a la
izquierda dejando fijo al eje 3 y S una transformación que rota a B 90◦ a la izquierda dejando fijo al eje 1.
Para determinar las representaciones matriciales de T o de S es necesario determinar la manera en que son transformados los elementos Contents
de una base. Consideremos la base canónica {ei }. Entonces

Te1 = e2 , Te2 = −e1 , Te3 = e3 , JJ II


Se1 = e1 , Se2 = e3 , Se3 = −e2 ,

por lo que J I
   
0 −1 0 1 0 0
[T] = 1 0 0 , [S] = 0 0 −1 .
Page 12 of 50
0 0 1 0 1 0
La transformación ST, es decir de la transformación en la que primero rotamos a la izquierda dejando fijo el eje 3 y posteriormente
Go Back
dejando fijo al eje 1, es determinada por la forma en la que transforma a los elementos de la base:

STe1 = e3 , STe2 = −e1 , STe3 = −e2 ,


Full Screen

entonces, su representación matricial está dada por  


0 −1 0
Close
[ST] = 0 0 −1 , (1.13)
1 0 0
Quit
notemos que si multiplicamos las representaciones matriciales de S y de T, obtenemos (1.13), es decir

[ST] = [S] [T] .

De manera análoga, se tiene que Home Page

[TS] = [T] [S] .


Title Page
1.2.5. Transpuesta de un tensor
Definición 1.2. La transpuesta de un tensor T, denotada por TT , está definida como aquel tensor que satisface la identidad Contents

a · Tb = b · TT a, (1.14)
JJ II
para cualesquiera vectores b y a.

Por definición J I
T
ej · Tei = ei T ej ,
de donde Page 13 of 50
Tij = Tij ,
es decir Go Back
T
[T] = TT .
 

Por definición, se tiene también que Full Screen


T T

T =T
y, aplicando varias veces la definición, Close
T T T T T
(ABC . . . D) = D . . . C B A .
Quit
1.2.6. Producto diádico de dos vectores
Definición 1.3. Dado un espacio vectorial V y dos vectores fijos a, b ∈ V ; el producto diádico de a y b, denotado2 por ab, está definido
como la transformación
(ab) c = a (b · c) Home Page
para cualquier vector c ∈ V .
Teorema 1.1. El producto diádico ab es una transformación lineal Title Page

Demostración. Verifiquemos que se cumple la condición (1.8). Sean c, d ∈ V dos vectores cualesquiera y sean α, β ∈ R dos escalares.
Entonces, por definición se tiene que el producto diádico ab, aplicado a la combinación lineal αc + βd, está dado por
Contents
ab (αc + βd) = a (b · [αc + βd]) ,
por otro lado, sabemos que el producto punto es distributivo, por lo que JJ II
a (b · [αc + βd]) = a (b · αc + b · βd) ,
el término (b · αc + b · βd) es un escalar, ¿por qué?, entonces podemos decir que J I

a (b · αc + b · βd) = a (b · αc) + a (b · βd) ,


Page 14 of 50
como α y β son escalares
a (b · αc) + a (b · βd) = αa (b · c) + βa (b · d) ,
aplicando la definición de producto diádico: Go Back

αa (b · c) + βa (b · d) = α (ab) c + β (ab) d,
Full Screen
que es lo que se quería demostrar, entonces
ab (αc + βd) = α (ab) c + β (ab) d
por lo que el producto diádico es una transformación lineal. Close
2 Algunos autores lo denotan por a ⊗ b

Quit
1.2.6.1. Componentes del producto diádico
Teorema 1.2. Sea W = ab, entonces las componentes de W están dadas por
Wij = ai bj .
Home Page
Demostración. En efecto
Wij = ei · Wej = ei · (ab) ej = ei · a (b · ej ) = (ei · a) (bj ) = ai bj
Title Page
Observación. Por lo anterior se tiene que la representación matricial de un producto diádico está dado por
 
a1 b1 a1 b2 a1 b3
[W] = a2 b1 a2 b2 a2 b3  Contents
a3 b1 a3 b2 a3 b3

JJ II
Observación. En particular
       
1 0 0 0 1 0 0 0 0 0 0 0
[e1 e2 ] = 0 0 0 , [e1 e2 ] = 0 0 0 , · · · , [e3 e2 ] = 0 0 0 , [e3 e3 ] = 0 0 0 , J I
0 0 0 0 0 0 0 1 0 0 0 1
entonces
T = T11 e1 e2 + T12 e1 e2 + T13 e1 e3 + · · · + T33 e3 e3 = Tij ei ej . (1.15) Page 15 of 50

Go Back
1.2.7. Traza de un tensor
Definición 1.4. La traza de un tensor es un escalar definido de acuerdo a las siguientes reglas: Para cualesquiera tesnores T y S y
cualesquiera vectores a y b: Full Screen

tr (T + S) = tr T + tr S, (1.16)
tr (αT) = α tr T, (1.17) Close

tr (ab) = a · b. (1.18)
Quit
En términos de las componentes de un tensor:

tr T = tr (Tij ei ej ) = Tij tr (ei ej ) = Tij (ei · ej ) = Tij δij = Tii ,

donde las igualdades se han obtenido: i) Usando (1.15), ii) Por propiedad (1.17), iii) Por propiedad (1.18), iv) Por definición de la δ de
Home Page
Kronecker y v) Desarrollando la notación suma.

1.2.8. Tensor identidad y tensor inverso Title Page

Definición 1.5. Sea V un espacio vectorial, I : V → V un tensor. Si para cada a ∈ V se tiene que
Contents
Ia = a,

el tensor I se llamará tensor identidad.


JJ II
Dado un tensor T, si existe un tensor S tal que
ST = I (1.19)
J I
Definición 1.6. Al tensor S que cumpla con la propiedad (1.19) se le llamará inverso del tensor T y se denotará por T−1 .

Teorema 1.3. La inversa de un tensor T satisface las siguientes propiedades Page 16 of 50

1. T−1 T = TT−1 = I
−1 T
2. TT = T−1 Go Back

−1
3. (TS) = S−1 T−1
Full Screen
4. Si Ta = b entonces a = Tb.
Observación. De acuerdo con la propiedad 4, si un tensor es invertible, existe una correspondencia uno a uno entre los vectores a y b. Si el
Close
tensor no es invertible, existirán muchos vectores a que sean transformados en el vector b.

Quit
1.2.9. Tensores ortogonales
Definición 1.7. Un tensor ortogonal es una transformación lineal de un espacio vectorial en él mismo, que preserva longitudes y ángulos.
Teorema 1.4. Si Q es un tensor ortogonal entonces
QT Q = I. Home Page

Demostración. De la definició anterior el tensor Q : V → V es un tensor ortogonal si, dados dos vectores arbitrarios a, b ∈ V
Title Page
|Qa| = |a| , |Qb| = |b| , cos (Qa, Qb) = cos (a, b) ,
entonces
Contents
Qa · Qb = a · b.
Por otro lado, utilizando la definición de transpuesta (1.14), se tiene que
JJ II
(Qa) · Qb = b · QT (Qa) ,
como el producto punto es conmutativo
J I
b · a = a · b = (Qa) · Qb = b · QT (Qa) ,
que aplicando la definición de tensor identidad se convierte en
Page 17 of 50
b · Ia = b · a = b · QT (Qa) ,
es decir, Go Back
b · Ia = b · QT (Qa)
para cualesquiera dos vectores a, b ∈ V. Por lo que se concluye que
Full Screen
QT Q = I,
lo que se quería demostrar. Close

Teorema 1.5. Si Q es un tensor ortogonal entonces Q es una rotación alrededor del origen.
Quit
1.2.10. Matriz de transformación entre dos sistemas de referencia cartesianos
Sean {ei } y {e0i } dos bases de un espacio vectorial V relacionadas mediante una rotación Q, es decir
e0i = Qei = Qmi em ,
Home Page
donde Q es un tensor ortogonal.
Notamos que
Title Page
Q11 = e1 · Qe1 = e1 · e01 ,
Q12 = e1 · Qe2 = e1 · e02 ,
.. Contents
.
Qij = ei · Qej = ei · e0j .
JJ II
Como |ei | = e0j = 1, entonces
ei · e0j = cos ei , e0j ,

J I
es decir, la matriz [Q] está formada por los ángulos que forman las diferentes combinaciones de los elementos de las bases:
Qij = cos ei , e0j

(1.20)
Page 18 of 50
Ejemplo 1.6. Sea {e0i } la base de un espacio vectorial V obtenida rotando la base {ei } un ángulo de 30◦ alrededor de e3 . Obtenga la
representación matricial de esta transformación
Go Back
Solución. Usando (1.20) se tiene que
ei , e0j

Qij = cos
Entonces √  Full Screen
3/2 −1/2 0

[Q] =  1/2 3/2 0 .
0 0 1 Close

También se puede obtener fijándonos cómo son transformados los elementos de la base y expresándolos en términos de la base original.
Quit
1.2.11. Ley de transformación para componentes cartesianas de un vector
Sean {ei } y {e0i } dos bases de un mismo espacio vectorial relacionadas mediante un tensor ortogonal Q, es decir

e0i = Qei = Qmi em .


Home Page

Sea a un vector. Sus componentes, en términos de la base {ei } están dadas por
Title Page
ai = a · ei

y, en términos de la base {e0i } por


a0i = a · e0i . Contents

Entonces
a0i = a · e0i = a · Qei = Qmi a · em = Qmi am JJ II
es decir
a0i = Qmi am . J I

1.2.12. Ley de transformación para componentes cartesianas de un tensor


Page 19 of 50
Sean {ei } y {e0i } dos bases de un mismo espacio vectorial relacionadas mediante un tensor ortogonal Q, es decir

e0i = Qei = Qmi em . Go Back

Sea T un tensor. Sus componentes en términos de la base {ei } y de la base {e0i } están dadas por
Full Screen
Tij = ei · Tej , Tij0 = e0i · Te0j ,

respectivamente. Entonces
Close

Tij0 = e0i · Te0j = Qmi em · Te0j = Qmi em · T (Qkj ek ) = Qmi Qkj (em · Tek ) = Qmi Qkj Tmk .
Quit
Es decir
Tij0 = Qmi Qkj Tmk .
Debido a que Q es ortogonal se tiene que
0
Tij = Qim Qjn Tmn .
Home Page

1.2.13. Tensores simétricos y antisimétricos


Title Page
Definición 1.8. Se dice que un tensor es simétrico si T = TT , es decir

Tij = Tji . (1.21)


Contents
T
Un tensor es antisimétrico si T = −T , es decir
Tij = −Tji (1.22)
JJ II
Teorema 1.6. Cualquier tensor se puede descomponer en la suma de un tensor simétrico y un tensor antisimétrico
Demostración. Sea T un tensor y sean TS y TA definidos como sigue J I
T + TT T − TT
TS = , TA = .
2 2 Page 20 of 50

Obviamente, los tensores TS y TA son simétrico y antisimétrico, respectivamente, por lo que se sigue la conclusión del teorema.
Observación. Los elementos de la diagonal principal de un tensor antisimétrico son siempre igual a cero. Go Back

Observación. En el caso de que el espacio vectorial sea R3 . De las 6 componentes no nulas del tensor, sólo tres son independientes, debido a que
Full Screen
T12 = −T21 , T13 = −T31 y T23 = −T32 , entonces un tensor antisimétrico tiene 3 componentes, como un vector. De hecho, se comporta como
un vector.
Para cada tensor antisimétrico T existe un vector tA tal que para cada vector a se tiene que Close
A
Ta = t × a.

Quit
De hecho:
T12 = e1 · Te2 = e1 · tA × e2 = tA · e2 × e1 = −tA · e3 = −tA
3,

T13 = e1 · Te3 = e1 · tA × e3 = tA · e3 × e1 = −tA · e2 = −tA


2,

T23 = e2 · Te3 = e2 · tA × e3 = tA · e3 × e2 = −tA · e1 = −tA


1,
Home Page

es decir
tA = T32 e1 + T13 e2 + T21 e3 . (1.23) Title Page

1.2.14. Vectores y valores propios de un tensor Contents

Definición 1.9. Sean a un vector y T un tensor en un espacio vectorial del campo R. Si bajo T el vector a es transformado en un vector
paralelo a él mismo, es decir JJ II
Ta = λa, λ ∈ R,
al vector a le llamaremos vector propio de T y al escalar λ, valor propio de de T.
J I
Observación. Si a es un vector propio entonces cualquier múltiplo de a lo es también:
T (αa) = αTa = αλa = λ (αa) .
Page 21 of 50

Por lo anterior, es común tomar como parte de la definición que un vector propio es de longitud 1.

La ecuación Go Back

(T−λI) a = 0, (1.24)
sólo admite soluciones no triviales (diferentes de cero) cuando el determinante se anula, es decir: Full Screen

det (T−λI) = 0. (1.25)


Close
A la ecuación resultante de esta condición se le conoce como ecuación característica de T y sus raices son justamente, los valores propios
de T.
Quit
Ejemplo 1.7. Encontrar los vectores y valores propios de tensor
 
1 0 2
[T] = 2 3 0
0 0 5 Home Page

Solución. De la ecuación (1.25) tenemos que


λ3 − 9λ2 + 23λ − 15 = 0, Title Page
es la ecuación característica, cuyas raices son λ = 1, λ = 3, λ = 5.
T
Para calcular los vectores propios, notamos que si x = (x, y, z) , es un vector propio, debe satisfacer la ecuación (1.24) para algún
valor de λ. Contents

Para λ = 1 :

(T − I) x= 0 JJ II
       
1 0 2 1 0 0 x 0
2 3 0 − 0 1 0 y  = 0 J I
0 0 5 0 0 1 z 0
    
0 0 2 x 0
2 2 0 y  = 0 Page 22 of 50

0 0 4 z 0

de donde obtenemos el sistema algebráico de ecuaciones Go Back

2z = 0
2x + 2y = 0 Full Screen

4z = 0
Close
entonces, cualquier vector que satisfaga las relaciones:
x = y, z=0
Quit
es un vector propio correspondiente al valor λ = 1, en particular, notamos que
   
x 1
−x = x −1 ,
0 0 Home Page

por lo que podemos decir que “el” vector propio correspondiente al valor propio λ = 1, es
Title Page
 
1
−1 .
0
Contents

Del mismo modo, para λ = 3 :

(T − 3I) x= 0 JJ II
       
1 0 2 3 0 0 x 0
2 3 0 − 0 3 0 y  = 0 J I
0 0 5 0 0 3 z 0
    
−2 0 2 x 0
 2 0 0 y  = 0 Page 23 of 50
0 0 2 z 0

de donde obtenemos el sistema Go Back

−2x + 2z = 0
2x = 0 Full Screen

2z = 0
Close
o
x = 0, z = 0, y cualquier número
Quit
entonces, el vector propio correspondiente a λ = 3 es  
0
1 .
0
Home Page
De modo análogo encontramos que el vector propio correspondiente a λ = 5 es
 
1/2
1/2 . Title Page

1
Contents
Teorema 1.7. Sea T un tensor simétrico con componentes reales, entonces

1. Los valores propios de T son reales y se llaman valores principales de T


JJ II
2. Existen al menos tres vectores propios de T con componentes reales, llamados direcciones principales de T.

Teorema 1.8. Sea T un tensor simétrico con componentes reales, entonces existen al menos tres direcciones principales mutuamente J I
ortogonales
Demostración. La demostración se hará por casos Page 24 of 50

1. Valores propios diferentes. Sean n1 y n2 dos vectores propios correspondientes a los valores propios λ1 y λ2 , respectivamente, de
un tensor T. Entonces Go Back
Tn1 = λ1 n1 , Tn2 = λ2 n2 .

Por otro lado Full Screen


n2 · Tn1 = λ1 n2 · n1 , n1 · Tn2 = λ2 n1 · n2 ,
como T es un tensor simétrico, T = TT , entonces
Close
T
n1 · Tn2 = n2 · T n1 = n2 · Tn1 ,
Quit
de donde
λ1 n2 · n1 = λ2 n1 · n2 ⇐⇒ (λ1 − λ2 ) (n1 · n2 ) = 0
lo que implica que, si λ1 6= λ2 ,
n1 · n2 = 0.
Home Page
2. Al menos dos valores propios diferentes. Sean n1 y n2 dos vectores propios correspondientes al mismo valor propio λ. Entonces
cualquier combinación lineal de ellos es un vector propio:
Title Page
T (αn1 + βn2 ) = T (αn1 ) + T (βn2 ) = αTn1 + βTn2 = λ (αn1 + βn2 ) .

Como n1 y n2 generan un plano, usando el inciso anterior, tenemos las tres direcciones mutuamente ortogonales. Contents

3. Si todos los valores propios son iguales, entonces cualquier vector es un vector propio (esto se ve fácilmente encontrando los vectores
propios correspondientes mediante la ecuación (1.24)). JJ II
Teorema 1.9. Si n1 , n2 y n3 son las direcciones principales de T, la representación matricial de T con respecto a la base {n1 , n2 , n3 }
es una matriz diagonal.
J I
Demostración. Supongamos que {n1 , n2 , n3 } es una base, entonces, para encontrar la representación matricial de T con respecto a esa
base:
Page 25 of 50
T11 = n1 · Tn1 = n1 · λ1 n1 = λ1 ,
..
. Go Back
T12 = n1 · Tn2 = n1 · λ2 n2 = 0,
..
. Full Screen

entonces  
λ1 0 0
Close
[T] =  0 λ2 0 .
0 0 λ3
Quit
Teorema 1.10. La ecuación característica de un tensor T, det (Tij − λδij ) = 0, puede ser escrita como

λ3 − I1 λ2 + I2 λ − I3 = 0,

donde Home Page

I1 = T11 + T22 + T33 = Tii = tr (T) ,



T11 T12 T22 T23 T11 T13 1
= (Tii Tjj − Tij Tji ) = 1 (tr T)2 − tr T2 ,
h i Title Page
I2 = + +
T21 T22 T32 T33 T31 T33 2 2

T11 T12 T13
Contents
I3 = T21 T22 T23 = det (T) .
T31 T32 T33
JJ II
Observación. Por definición, los vectores propios no dependen de la elección de la base, entonces los coeficientes I1 , I2 , I3 no depende de la elección
de la base por lo que son llamados los invariates de T.
J I

Page 26 of 50

Go Back

Full Screen

Close

Quit
1.3. Cálculo tensorial (en coordenadas cartesianas)
Sean T = T (t) y x = x (t) una función tensorial y una función vectorial, respectivamente, del escalar t (por ejemplo del tiempo).
Entonces
Home Page
Definición 1.10. La derivada de T y la derivada de x con respecto a t se definen como
dT T (t + h) − T (t) dT x (t + h) − x (t)
= lı́m , = lı́m Title Page
dt h→0 h dt h→0 h
Observación. En la definición anterior se está asumiendo que T es una función contínua del escalar t.
Contents

Teorema 1.11. Si las funciones tensorial y vectorial T (t) y x (t) son diferenciable, entonces las reglas usuales de derivación se preservan:

1. Multiplicación por función escalar. Sea u (t) una función escalar, entonces JJ II

d dx (t)
[u (t) x (t)] = u0 (t) x (t) + u (t) ,
dt dt J I
d dT (t)
[u (t) T (t)] = u0 (t) T (t) + u (t) .
dt dt
Page 27 of 50
2. Mapeo de una función vectorial bajo una función tensorial
d dT (t) dx (t) Go Back
[T (t) x (t)] = x (t) + T (t) .
dt dt dt
3. Producto escalar de dos funciones vectoriales o tensoriales Full Screen

d dy (t) dx (t)
[y (t) · x (t)] = · x (t) + y (t) · ,
dt dt dt Close
d dT (t) dS (t)
[T (t) : S (t)] = : S (t) + T (t) : .
dt dt dt
Quit
4. Producto tensorial de dos funciones vectoriales

d dy (t) dx (t)
[y (t) x (t)] = x (t) + y (t) .
dt dt dt
Home Page
5. Composición de dos funciones tensoriales

d dT (t) dS (t) Title Page


[T (t) S (t)] = S (t) + T (t) .
dt dt dt
Contents
6. Regla de la cadena

d dx (t) du (t)
[x (u (t))] = , JJ II
dt dt dt
d dT (t) du (t)
[T (u (t))] = ,
dt dt dt J I

7. Regla de la cadena para varios argumentos


Page 28 of 50
d ∂x du ∂x dv
[x (u (t) , v (t))] = + ,
dt ∂u dt ∂v dt
d ∂T du ∂T dv Go Back
[T (u (t) , v (t))] = + .
dt ∂u dt ∂v dt

Observación. En el último inciso la derivada parcial está definida en la forma usual Full Screen

∂x x (u + s, v) −x (u, v) ∂T T (u + s, v) −T (u, v)
= lı́m , = lı́m
∂u s→0 s ∂u s→0 s Close

Quit
1.3.1. Gradiente de una función escalar
En lo que sigue se asumirá que se está trabajando sobre el espacio vectorial R3 definido sobre el campo R.
Definición 1.11. Sea φ (r) una función escalar del vector de posición r = r (x1 , x2 , x3 ). El gradiente de φ, denotado por ∇φ o por grad φ,
se define como aquel vector tal que su producto punto con el vector dr proporciona la diferencia de φ evaluado en r + dr y en r. Es decir Home Page

∇φ · dr = φ (r + dr) − φ (r) = dφ.


Title Page
Observación. Si dr denota la magnitud de dr, es decir dr = |dr|, y u a un vector unitario en la dirección de dr, es decir u = dr/dr. Entonces
dφ dr
= ∇φ · = ∇φ · u. Contents
dr dr

Es decir, la componente de ∇φ en la dirección de u, proporciona la razón de cambio de φ en esa dirección.


JJ II
Observación. En particular, las componentes de ∇φ en la base canónica {e1 , e2 , e3 }:
∂φ

dφ J I
= = ∇φ · ei ,
∂xi dr r=ei

por lo que las componentes de ∇φ en coordenadas cartesianas son: Page 29 of 50

∂φ ∂φ ∂φ ∂φ
∇φ = e1 + e2 + e3 = ei . (1.26)
∂x1 ∂x2 ∂x3 ∂xi Go Back

Observación. La interpretación geométrica de ∇φ es simple. Supongamos que φ (r) describe la temperatura en el punto r = r (x1 , x2 , x3 ). Sea S
una supercie de temperatura constante, es decir φ (r) = c, para cualquier r ∈ S. Sea dr un elemento del espacio vectorial tal que r + dr ∈ S. Full Screen
Como φ es constante en S
φ (r + dr) − φ (r) = 0,
Close
entonces
∇φ · dr = 0.
Quit
En otras palabras, como dr es cualquier elemento en S, se concluye que ∇φ es perpendicular a la superficie S.
Por otro lado, como el producto ∇φ · s es máximo si s está en la dirección de ∇φ, se tiene que |∇φ| es máxima en la dirección ortogonal a la
superficie S.

Home Page
Ejemplo 1.8. Si ϕ = x1 x2 + 2x3 , encuentre un vector unitario n que sea normal a la superficie ϕ = C que pasa por el punto (2, 1, 0) .
Solución. Utilizando (1.26),
∂φ ∂φ ∂φ Title Page
∇φ = e1 + e2 + e3 = x2 e1 + x1 e2 + 2e3 .
∂x1 ∂x2 ∂x3
En el punto (2, 1, 0)
Contents
∇φ|(2,1,0) = e1 + 2e2 + 2e3 ,
entonces, como
1 JJ II
n= (e1 + 2e2 + 2e3 ) .
3
Ejemplo 1.9. Si q es un vector que denota el flujo de calor a través de una superficie, la ley de conducción de calor de Fourier establece
J I
que
q = −k∇ϕ (1.27)
donde ϕ es  la temperatura y k es la conductividad √térmica.
√ Si ϕ está definida en un espacio vectorial bidimensional y dada por ϕ = Page 30 of 50
2 x21 + x22 , encuentre ∇ϕ en los puntos (0, 1) y 1/ 2, 1/ 2 y bosqueje las curvas en donde ϕ es constante.
Ejemplo 1.10. Una ley más general de conducción de calor es Go Back

q = −K∇ϕ,
Full Screen
donde K es un tensor, conocido como tensor de conductividad. ¿Qué tensor K corresponde a la Ley de Fourie (1.27)? Encuentre q si
ϕ = 2x1 + 3x2 y  
2 −1 0
Close
[K] = −1 2 0 .
0 0 3
Quit
1.3.2. Gradiente de una función vectorial
Definición 1.12. Sea v (r) una función vectorial. El gradiente de v, denotado por ∇v o por grad v, se define como aquel tensor de
segundo rango tal que al aperarlo con dr proporciona la diferencia de v evaluado en r + dr y en r. Es decir
Home Page
∇v (dr) = v (r + dr) − v (r) = dv

Observación. Si dr denota la magnitud de dr, es decir dr = |dr|, y e a un vector unitario en la dirección de dr, es decir e = dr/dr. Entonces Title Page

 
dr dv
∇v (e) = ∇v = .
dr dr Contents

Es decir, el tensor de segundo rango ∇v transforma al vector unitario e, en un vector que describe la razón de cambio de v en esa dirección. JJ II

Observación. En el caso particular de la base canónica {ej } J I


∂v
∇v (ej ) = ,
∂xj
Page 31 of 50
por lo que las componentes de ∇v, en notación indicial están dadas por

∂v ∂vi
(∇v)ij = ei · ∇v (ej ) = ei · = , Go Back
∂xj ∂xj

o en notación matricial  ∂v ∂v1 ∂v1


 Full Screen
1
∂x ∂x2 ∂x3
 ∂v21 ∂v2 ∂v2 
[∇v] =  ∂x1 ∂x2 ∂x3  . (1.28)
∂v3 ∂v3 ∂v3
∂x1 ∂x2 ∂x3 Close

Quit
1.3.3. Divergencia de una función vectorial y de una función tensorial
Definición 1.13. Sea v (r) una función vectorial. La divergencia de v (r) es un campo escalar dado por la traza del gradiente de v. Es
decir:
div v ≡ tr (∇v) . (1.29) Home Page

De acuerdo con (1.28), en coordenadas cartesianas


∂v1 ∂v2 ∂v3 ∂vi Title Page
div v = + + = . (1.30)
∂x1 ∂x2 ∂x3 ∂xi
Definición 1.14. Sea T (r) una función tensorial. La divergencia de T es un vector, denotado por div T, tal que para cualquier vector a Contents

(div T) · a = div TT a − tr TT ∇a .
 
(1.31)
Sea b = div T, aplicando la definición en un elemento de la base canónica {ei }: JJ II
∂Tij
bi = b · ei = div div TT ei − tr TT ∇ei = div (Tij ej ) − 0 =
 
,
∂xj J I
es decir
∂Tij
div T = ei . (1.32) Page 32 of 50
∂xj
Ejemplo 1.11. Sea α = α (r) y a = a (r). Demuestre que
Go Back
div (αa) = α div a+ (∇α) · a.
Solución. Sea b = αa. Entonces bi = αai , entonces
Full Screen
∂bi ∂ai ∂α
div b = =α + ai
∂xi ∂xi ∂xi
Close
es decir
div (αa) = α div a+ (∇α) · a.
Quit
Ejemplo 1.12. Dados α = α (r) y T = T (r), demostrar que

div (αT) = T (∇α) + α div T.

Home Page
1.3.4. Rotacional de una función vectorial
Definición 1.15. Sea v (r) una función vectorial. El rotacional de v (r) está definido como el vector que es igual a dos veces el vector Title Page
dual de la parte antisimétrica del tensor ∇v. Es decir
rot v = 2tA (1.33)
Contents
A A
donde t es el vector dual de (∇v) .
JJ II
En coordenadas cartesianas
    
1 ∂v1 ∂v2 1 ∂v1 ∂v3 J I
0 2 ∂x2 − ∂x1 2 −
h i     ∂x3 ∂x1 
A ∂v1 ∂v2 1 ∂v2 ∂v3 
(∇v) =  21 ∂x − 0 − .

  2 ∂x1    2 ∂x3 ∂x2 
1 ∂v1 ∂v3 1 ∂v2 ∂v3 Page 33 of 50
− 2 ∂x3 − ∂x1 − 2 ∂x3 − ∂x2 0

Entonces, utilizando la ecuación (1.23), Go Back

     
∂v3 ∂v2 ∂v1 ∂v3 ∂v2 ∂v1
rot v = − e1 + − e2 + − e3 .
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2 Full Screen

Es posible verificar facilmente que


Close
∂vj
rot v = −εijk ei .
∂xk
Quit
1.3.5. Laplaciano de una función escalar
Definición 1.16. Sea f (r) una función escalar de r. El Laplaciano de una función escalar definida por

∇2 f = div (∇f ) = tr (∇ (∇f )) . Home Page

En coordenadas cartesianas el Laplaciano está dado por


Title Page
∂2f ∂2f ∂2f ∂2f
∇2 f = tr (∇ (∇f )) = = 2 + 2 + .
∂xi ∂xi ∂x1 ∂x2 ∂x23
Contents

1.3.6. Laplaciano de una función vectorial


Definición 1.17. Sea v (r) una función vectorial. El Laplaciano de v se define como JJ II

∇2 v = ∇ (div v) − rot (rot v) (1.34)


J I
En coordenadas rectangulares    
∂ ∂vk ∂vj
∇ (div v) = ei , rot v = −εαjk eα , (1.35) Page 34 of 50
∂xi ∂xk ∂xk
entonces    
∂ ∂vj ∂ ∂vj Go Back
rot (rot v) = −εiαβ −εαjk ei = εiαβ εαjk ei , (1.36)
∂xβ ∂xk ∂xβ ∂xk
por otro lado Full Screen
εiαβ εαjk = −εαiβ εαjk = − (δij δβk − δik δβj ) ,
así        Close
∂ ∂vj ∂ ∂vβ ∂ ∂vi
rot (rot v) = − (δij δβk − δik δβj ) ei = − ei . (1.37)
∂xβ ∂xk ∂xβ ∂xi ∂xβ ∂xβ
Quit
Por lo tanto, usando la definición (1.34),
      
2 ∂ ∂vk ∂ ∂vβ ∂ ∂vi
∇ v= ei − − ei ,
∂xi ∂xk ∂xi ∂xβ ∂xβ ∂xβ
Home Page
es decir
∂ 2 vi
∇2 v = ei = ∇2 vi ei .
∂xβ ∂xβ Title Page

Contents

JJ II

J I

Page 35 of 50

Go Back

Full Screen

Close

Quit
1.4. Coordenadas polares
Consideremos las coordenadas polares (r, θ), tales que
√ x2
r = x1 + x2 , θ = arctan . Home Page
x1
Consideremos las coordenadas polares (r, θ), tales que
√ x2 Title Page
r = x1 + x2 , θ = arctan .
x1
Consideremos las coordenadas polares (r, θ), tales que
Contents
√ x2
r = x1 + x2 , θ = arctan .
x1
FIGURA: Interpretación de las coordenadas polares JJ II
Los vectores base unitarios er y eθ pueden ser expresados en términos de los elementos de la base Cartesiana e1 y e2 como
er = cos θe1 + sen θe2 , eθ = − sen θe1 + cos θe2 . (1.38) J I
Esta base cambia de dirección conforme θ cambia. De hecho, de (1.38),
der = (− sen θe1 + cos θe2 ) dθ = dθeθ (1.39) Page 36 of 50
deθ = − (cos θe1 + sen θe2 ) dθ = −dθer (1.40)
FIGURA: Interpretación de las diferenciales Go Back
Observación. Interpretación geométrica de der y deθ .
Consideremosel vector de posición Full Screen
r = rer (1.41)
entonces
dr = drer + rder = drer + rdθeθ . (1.42) Close

En la figura, dr no es otra cosa más que el vector P Q.


Quit
1.4.1. Gradiente de una función escalar
Teorema 1.12. Sea f (r, θ) una funciones escalar. Entonces

∂f 1 ∂f
∇f = er + eθ . (1.43) Home Page
∂r r ∂θ
Demostración. En la base polar {er , eθ } los vectores ∇f y dr tienen la siguiente representación
Title Page
∇f = ar er + aθ eθ , dr = drer + rdθeθ ,

utilizando la definición de gradiente se tiene entonces que Contents

df = ∇f · dr = (ar er + aθ eθ ) · (drer + rdθeθ ) = ar dr + aθ rdθ. (1.44)


JJ II
Por otro lado, de cálculo
∂f ∂f
df =dr + dθ, (1.45) J I
∂r ∂θ
igualando los LD de (1.44) y (??), para los incrementos dr y dθ se tiene que
Page 37 of 50
∂f 1 ∂f
ar = , aθ = .
∂r r ∂θ
De donde se tiene la conclusión. Go Back

1.4.2. Gradiente de una función vectorial Full Screen

Teorema 1.13. Sea v (r, θ) una función vectorial entonces


 ∂vr 1 ∂vr
 Close
∂r r ∂θ − vθ 
[∇v] = ∂vθ 1 ∂vθ
∂r r ∂θ − vr
Quit
Demostración. En la base {er , eθ }
v (r, θ) = vr er + vθ eθ , (1.46)
donde vr = vr (r, θ) y vθ = vθ (r, θ). Sea T = ∇v, entonces
dv = Tdr = T (drer + rdθeθ ) = drTer + rdθTeθ . Home Page

Por otro lado


Ter = Trr er + Tθr eθ , Teθ = Trθ er + Tθθ eθ ,
Title Page
entonces
dv = (Trr dr + Trθ rdθ) er + (Tθr dr + Tθθ rdθ) eθ . (1.47)
Contents
Por otro lado, utilizando (1.46), se tiene que
dv = dvr er + vr der + dvθ eθ + vθ deθ , (1.48)
JJ II
utilizando el hecho de que der = dθeθ y deθ = −dθer , la ecuación (1.48) se vuelve
dv = (dvr − vθ dθ) er + (vr dθ + dvθ ) eθ . (1.49)
J I
De cálculo se sabe que
∂vr ∂vr ∂vθ ∂vθ
dvr = dr + dθ, dvθ = dr + dθ, (1.50)
∂r ∂θ ∂r ∂θ Page 38 of 50
sustituyendo (1.50) en (1.49) se tiene
       
∂vr ∂vr ∂vθ ∂vθ
dv = dr + − vθ dθ er + dr + + vr dθ eθ . (1.51) Go Back
∂r ∂θ ∂r ∂θ
Juntando (1.47) y (1.51) se tiene que
  Full Screen
∂vr ∂vr
dr + − vθ dθ = Trr dr + Trθ rdθ,
∂r ∂θ
 
∂vθ ∂vθ Close
dr + + vr dθ = Tθr dr + Tθθ rdθ.
∂r ∂θ

Quit
Como las ecuaciones anteriores deben cumplirse para cualquier dr y cualquier dθ:
 
∂vr 1 ∂vr
Trr = , Trθ = − vθ ,
∂r r ∂θ
 
∂vθ 1 ∂vθ Home Page
Tθr = , Tθθ = + vr
∂r r ∂θ
o en notación matricial  ∂vr Title Page
1 ∂vr

∂r r ∂θ − vθ 
[∇v] = ∂vθ 1 ∂vθ . (1.52)
∂r r ∂θ + vr
Contents

1.4.3. Divergencia de una función vectorial


Corolario 1.14.   JJ II
∂vr 1 ∂vθ
div v = tr (∇v) = + + vr . (1.53)
∂r r ∂θ
J I
1.4.4. Rotacional de una función vectorial
Corolario 1.15. Page 39 of 50
1 ∂vr ∂vθ
  
1 0  r ∂θ − vθ − ∂r
rot v = ∂vr ∂vθ . (1.54)
2 − 1r

∂θ − vθ − ∂r 0
Go Back
1.4.5. Divergencia de una función tensorial
Teorema 1.16. Sea T una función tensorial, entonces Full Screen

∂Trr 1 ∂Trθ Trr − Tθθ


(div T)r = + + (1.55)
∂r r ∂θ r Close
∂Trθ 1 ∂Tθθ Trθ − Tθr
(div T)θ = + + (1.56)
∂r r ∂θ r
Quit
Demostración. Para cualquier vector a, la definición invariante de la divergencia de un tensor de segundo orden establece que
(div T) · a = div TT a − tr (∇a) TT .
 

Tomemos a = er ; entonces
(div T) · er = div TT er − tr (∇er ) TT .
 
(1.57) Home Page

1. Primer término del lado derecho de (1.57).


Notemos que TT er es la imagen del vector er , bajo la transformación lineal TT , entonces Title Page

T
T er = Trr er + Trθ eθ ,
usando (1.53) Contents
 
∂Trr 1 ∂Trθ
div TT er = div (Trr er + Trθ eθ ) =

+ + Trr . (1.58)
∂r r ∂θ
JJ II
2. Segundo término del lado derecho de (1.57).
Teniendo en cuenta que er = (1) er + (0) eθ , usando (1.52) para obtener ∇er :
  J I
0 0
[∇er ] = ,
0 1r
Page 40 of 50
entonces  
0 0
[∇er ] TT =
 
Trθ Tθθ ,
r r Go Back
por lo tanto
  Tθθ
tr [∇er ] TT = . (1.59)
r Full Screen
Usando (1.58) y (1.59)
∂Trr 1 ∂Trθ Trr − Tθθ
(div T)r = + + . Close
∂r r ∂θ r
De manera completamente análoga se puede encontrar (1.56).
Quit
1.4.6. Laplaciano de una función escalar
Teorema 1.17. Sea f (x) una función escalar, entonces

∂2f 1 ∂2f 1 ∂f
∇2 f = div ∇f = 2
+ 2 2 + (1.60) Home Page
∂r r ∂θ r ∂r
Demostración. Dado un campo escalar f (x), el Laplaciano de f (x) está dado por ∇2 f = div ∇f = tr (∇ (∇f )), además, en coordenadas
Title Page
polares, de acuerdo con (1.43),
∂f 1 ∂f
∇f = er + eθ ,
∂r r ∂θ
Contents
utilizando (1.53), se tiene la conclusión.

1.4.7. Laplaciano de una función vectorial JJ II

Teorema 1.18. Sea v (r) una función vectorial, entonces


J I
2
 ∂ 2 vr 1 ∂ 2 vr ∂ 2 vr 1 ∂vr 2 ∂vθ vr
∇ v r= 2
+ 2 2
+ 2
+ − 2 − 2,
∂r r ∂θ ∂z r ∂r r ∂θ r
2 2
∂ v θ 1 ∂ v θ 1 ∂v θ 2 ∂v r v θ Page 41 of 50
∇2 v θ =

+ 2 + − 2 − 2,
∂r2 r ∂θ2 r ∂r r ∂θ r
Go Back

Full Screen

Close

Quit
1.5. Coordenadas cilíndricas
En coordenadas cilíndricas, la posición de un punto P está determinada por la terna (r, θ, z); donde r y θ determinan la posición de
la proyección vertical del punto P en el plano XY y la coordenada z determina la altura a la que se encuentra el punto P del plano XY .
En otras palabras, las coordenadas cilíndricas son unas coordenadas polares en el plano XY unidas a una coordenada z, perpendicular Home Page
al plano XY .
Denotando la posición de un vector P por r. Si los vectores unitarios er y eθ están en el plano XY (hagan un dibujo), es claro que
Title Page
r = rer + zez , (1.61)

y por tanto Contents


dr = (dr) er + r (der ) + (dz) ez + z (dez ) .
Debido a (1.39) y al hecho de que dez = 0, pues ez nunca cambia su dirección o su magnitud, se tiene que
JJ II
dr = (dr) er + (rdθ) eθ + (dz) ez . (1.62)

Repitiendo todos los pasos de la sección anterior, si f , v = (vr , vθ , vz ), T son funciones escalar, vectorial y tensorial; respectivamente, J I
se obtiene fácilmente que:

1. Componentes de ∇f : Page 42 of 50
∂f 1 ∂f ∂f
∇f = er + eθ + ez .
∂r r ∂θ ∂z
Go Back
2. Componentes de ∇v :  ∂vr 1 ∂vr ∂vr
 
∂r r ∂θ − vθ  ∂z
∇v =  ∂v
∂r
θ 1
r
∂vθ
∂θ + vr ∂vθ 
∂z Full Screen
∂vz 1 ∂vz ∂vz
∂r r ∂θ ∂z

3. div v : Close

4. Componentes de rot v :
Quit
5. Componentes de div T
6. Laplaciano de f :
7. Laplaciano de v :
Home Page

Title Page

Contents

JJ II

J I

Page 43 of 50

Go Back

Full Screen

Close

Quit
1.6. Coordenadas esféricas

Home Page

Title Page

Contents

JJ II

J I

Page 44 of 50

Go Back

Full Screen

Close

Quit
Home Page

Capítulo 2 Title Page

Ecuaciones Diferenciales Parciales Contents

JJ II

J I

Page 45 of 50

Go Back

Full Screen

Close

Quit
2.1. Notación y conceptos preliminares
Ejemplos
Clasificación
Definición de solución Home Page
Ejemplos

Title Page

Contents

JJ II

J I

Page 46 of 50

Go Back

Full Screen

Close

Quit
2.2. La ecuación lineal
Consideremos la EDP lineal de primer orden en dos variables independientes

a (x, y) ux + b (x, y) uy + c (x, y) u = f (x, y) . (2.1) Home Page

Asumimos que a, b, c y f son funciones continuas (¿para qué?) en alguna región del plano y que a (x, y) y b (x, y) no se anulan en el
mismo punto simultáneamente. Title Page

2.2.1. El significado de las características


Contents

JJ II

J I

Page 47 of 50

Go Back

Full Screen

Close

Quit
2.3. EDP lineales de segundo orden
Definición 2.1. Dado un dominio D. La forma general de la EDP lineal de segundo orden es

Auxx + 2Buxy + Cuyy + Dux + Euy + F u + G = 0, (2.2) Home Page

donde los coeficientes son funciones continuas de dos variables independientes, x y y. Asumiremos que A, B y C no se anulan simultá-
neamente en el mismo punto.
Title Page

Observación. El factor 2 en el coeficiente de uxy simplifica mucho una expresión que será de utilidad más adelante.
Contents
Observación. Es posible resolver la EDP lineal de segundo orden mediante un cambio de variable adecuado.

Exploraremos la idea de transformar (2.2) en una ecuación con una estructura más accesible que permita obtener una solución, o al JJ II
menos información del comportamiento de las mismas.
Empezamos con una transformación general:
ξ = ξ (x, y) , η = η (x, y) , (2.3) J I
cuyo Jacobiano no se anula en alguna región D del plano, es decir

ξ ξy Page 48 of 50
J = x 6 0 para (x, y) ∈ D.
=
ηx ηy

Si w (ξ, η) = u (x (ξ, η) , y (ξ, η)) . Entonces Go Back

ux = wξ ξx + wη ηx ,
.. Full Screen
.

Después de unos una operaciones algebraicas de rutina, se tiene que la ecuación (2.2) es transformada en Close

awξξ + 2bwξη + cwηη + dwξ + ewη + f w + g = 0, (2.4)


Quit
donde

a = Aξx2 + 2Bξx ξy + Cξy2 ,


b = Aξx ηx + B (ξx ηy + ηx ξy ) + Cξy ηy ,
Home Page
c = Aηx2 + 2Bηx ηy + Cηy2 .

Los coeficientes d, e, f y g no son difíciles de calcular; sin embargo, para nuestros propósitos, no son relevantes.
Title Page
La ecuación (2.4) es del mismo tipo que la ecuación (2.2). Lo que puede parecer desalentador, sin embargo, ab

2.3.1. Clasificación Contents

2.3.2. Forma canónica de la ecuación hiperbólica


Las ecuaciones que determinan las caracteristicas para el caso hiperbólico de (2.2) son JJ II

dy B ± B 2 − AC
= (2.5) J I
dx A

2.3.2.1. Ejercicios Page 49 of 50


Ejercicio 2.1. Llevar a cabo la derivación de la forma canónica para el caso C 6= 0

Ejercicio 2.2. En cada uno de los siguientes, encuentre una solución general, siguiendo la idea del ejemplo proporcionado en clase. Go Back

1. uxx + 2uxy − 3uyy = 0


Full Screen
2. uxx + 4uxy + uyy = 0
3. 2uxx + 2uxy − 5uyy = 0 Close

4. 3uxx + 6uxy + 2uyy = 0


Quit
2.3.3. Forma canónica de la ecuación parabólica
Consideremos la ecuación (2.2). Supongamos que B 2 − AC = 0 en un dominio D. Considerando esta hipótesis, notemos que A y C no
pueden anularse simultáneamente en un mismo punto (¿por qué?). Supongamos que A (x, y) 6= 0 en D. Procediendo de manera análoga
a desarrollada para las ecuaciones hiperbólicas, se obtiene una única ecuación para las caracteristicas Home Page

dy B
= ,
dx A Title Page
es decir, esta es la ecuación característica de (2.2) para el caso parabólico.
Por otro lado, recuerda que las características son las gráficas de ξ (x, y) = k y define implícitamente una integral de la ecuación
Contents
característica. Es posible elegir η como cualquier función continua, con primera y segunda derivada continua, y tal que el Jacobiano J 6= 0
en D.
JJ II

J I

Page 50 of 50

Go Back

Full Screen

Close

Quit

Das könnte Ihnen auch gefallen