Sie sind auf Seite 1von 32

Introducción al

Movimiento Browniano

Ricardo Vélez Ibarrola


Departamento de Estadı́stica e I.O.

UNED
1. Introducción
En 1827, Robert Brown, un botánico inglés que estaba investigando una suspensión de
partı́culas microscópicas de polen en una solución acuosa, observó que tales partı́culas,
en vez de permanecer estáticas, están permanentemente sometidas a un movimiento
errático y zigzagueante.
El fenómeno fue investigado por el mismo Brown y diversos cientı́ficos a lo largo del
siglo XIX. Las experiencias mostraron que un aumento de la temperatura de la solución
hace que el movimiento se haga más rápido. En cambio, el aumento de la viscosidad
del fluido ralentiza el movimiento y la trayectoria de las partı́culas se aleja menos, en
el mismo tiempo, de su posición inicial.
La teorı́a cinética de la materia ofreció pronto una explicación cualitativa del movi-
miento browniano: Las moléculas que componen el lı́quido están sometidas a un mo-
vimiento térmico, cuyas velocidades aleatorias tiene una distribución probabilı́stica (la
distribución de Maxwell) que depende de la temperatura del medio. Cualquier partı́cula
suficientemente grande para ser observada al microscopio, sufre constantes colisiones
por parte de las moléculas que la rodean y cada colisión altera su vector velocidad en
una dirección y con un módulo aleatoriamente elegidos según la posición y energı́a de
la molécula que la golpea. El efecto neto es el movimiento errático de la partı́cula a
través del fluido. (Ver figura).
El primer modelo matemático — y cuantitativo, por tanto— del movimiento browniano
fue desarrollado independientemente por Albert Einstein y Marian Smoluchowski, entre
1905 y 1906. Daba cuenta, entre otras cosas, del efecto fı́sico que tiene la temperatura,
la viscosidad y el tamaño de la partı́cula. El estudio fue proseguido por fı́sicos de tanto
renombre como Fokker, Planck, Ornstein y otros.
Desde el punto de vista matemático, fue Norbert Wiener, conocido sobre todo como
padre de la Cibernética, el que inició en 1918 el estudio del movimiento browniano
que, en buena parte, originó el desarrollo de la teorı́a de los procesos estocásticos.
Bajo la influencia de Wiener, la de Andrei Kolmogorov y la de Paul Lévy (autor en
1948 de un libro titulado Processus stochastiques et mouvement brownien) la teorı́a se
desarrolló rápidamente.
Hoy en dı́a, el movimiento browniano ha adquirido gran influencia en numerosas áreas
de las ciencias puras y aplicadas. Entre estas últimas, cabe citar la electrónica, la
propia cibernética, la biologı́a y la economı́a. En esta última dirección, el economista
francés Louis Bachelier, en su tesis doctoral Théorie de la spéculation de 1900, ya habı́a
propuesto la aplicación del movimiento browniano al estudio de las fluctuaciones de los
mercados.

2
2. Aproximación heurı́stica
El movimiento browniano tiene lugar en tres dimensiones y se observa en dos dimen-
siones a través del microscopio, pero el núcleo del problema es el estudio en una sola
dimensión.
Ası́ pues, imaginemos una partı́cula que se mueve a lo largo de una recta.

𝑞 𝑝 𝑞 𝑝

0 𝑖
Figura 1: Recorrido aleatorio

Partiendo del origen, en cada intervalo de tiempo de longitud ℎ, puede realizar un salto
de amplitud Δ, a su derecha o a su izquierda con probabilidades 𝑝 y 𝑞 respectivamente
(𝑝 + 𝑞 = 1).
Los sucesivos saltos 𝑍𝑛 son variables aleatorias independientes que pueden valer
{
+Δ con probabilidad 𝑝
𝑍𝑛 =
−Δ con probabilidad 𝑞

con lo cual

𝐸[𝑍𝑛 ] = (𝑝 − 𝑞)Δ 𝑉 (𝑍𝑛 ) = Δ2 − (𝑝 − 𝑞)2 Δ2 = 4𝑝𝑞Δ2 .

Al cabo de un tiempo 𝑡, la partı́cula habrá realizado 𝑛 = 𝑡/ℎ saltos y se encontrará en


la posición
∑𝑛
𝑋𝑡 = 𝑍𝑘
𝑘=1

de media
Δ
𝐸(𝑋𝑡 ) = (𝑝 − 𝑞) 𝑡

y varianza
Δ2
𝑉 (𝑋𝑡 ) = 4𝑝𝑞 𝑡.

Esto describe para la partı́cula un recorrido aleatorio discreto que en los instantes
múltiplos de ℎ ocupa posiciones múltiplos de Δ, tal y como indica la figura 2 (en la que
los segmentos verticales azules representan la probabilidad de las diversas posiciones
posibles al cabo de un tiempo 𝑡 = 13ℎ).

3
Δ

𝑡

Figura 2: Gráfico del recorrido aleatorio

Para transformar el recorrido de la partı́cula en un movimiento continuo, puede hacerse


tender Δ y ℎ a cero, con intención de que

𝐸[𝑋𝑡 ] −→ 𝜇𝑡 y 𝑉 (𝑋𝑡 ) −→ 𝜎 2 𝑡

conservándose en el lı́mite ambos parámetros proporcionales a √


𝑡. Para ello, como existe
la posibilidad de que sea 𝑝 = 𝑞 = 1/2, habrá que tomar Δ = 𝜎 ℎ y, por consiguiente,

Δ 𝜎
(𝑝 − 𝑞) = (2𝑝 − 1) √ = 𝜇
ℎ ℎ
de donde ( √ ) ( √ )
1 𝜇 ℎ 1 𝜇 ℎ
𝑝= 1+ y 𝑞= 1− .
2 𝜎 2 𝜎
En estas condiciones

𝜇 ℎ √
𝐸[𝑍𝑛 ] = (2𝑝 − 1)Δ = 𝜎 ℎ = 𝜇ℎ
𝜎
𝜇2 ℎ
( )
𝑉 (𝑍𝑛 ) = 1 − 2 𝜎 2 ℎ = 𝜎 2 ℎ − 𝜇2 ℎ2 .
𝜎

Y se tiene entonces
𝑡/ℎ
∑ 𝑡
𝑍𝑘 − 𝜇ℎ

√ √
𝑋𝑡 − 𝜇𝑡 𝑡/ℎ 𝜎 2 ℎ − 𝜇2 ℎ2
√ = √ 𝑘=1√ √ .
𝜎 𝑡 𝑡/ℎ 𝜎 2 ℎ − 𝜇2 ℎ2 𝜎 𝑡

4
El primer factor es una suma tipificada de variables aleatorias independientes e igual-
mente distribuidas; ası́ que, en virtud del teorema central del
√ lı́mite, tiende en distribu-
ción a una 𝑁 (0, 1). Mientras tanto, el segundo factor vale 1 − 𝜇2 ℎ/𝜎 2 que tiende a 1,
cuando ℎ tiende a cero. En resumidas cuentas, en las condiciones indicadas,
√ la posición
𝑋𝑡 al cabo de un tiempo 𝑡 tiene a distribuirse con distribución 𝑁 (𝜇𝑡, 𝜎 𝑡). El siguiente
gráfico trata de mostrar la nueva situación lı́mite (supuesto que es 𝜇 = 0).


𝑁 (𝜇𝑡, 𝜎 𝑡)

Figura 3: Gráfico del recorrido aleatorio lı́mite

El resultado obtenido expresa la distribución de la posición de la partı́cula en cualquier


instante; pero sirve además para describir como se desplaza a lo largo de su evolución.
En efecto, si en un instante cualquiera, 𝑠, se observa que su posición es 𝑋𝑠 , la evolución
posterior al instante 𝑠 se produce, exactamente con las mismas reglas que al principio
y con independencia de lo que haya ocurrido antes del instante 𝑠.
De esta forma, como modelo del movimiento browniano en una dimensión se considera
un proceso estocástico {𝑋𝑡 }𝑡≥0 con las siguientes caracterı́sticas:

(a) 𝑋0 = 0.

(b) Para cualesquiera instantes √ 𝑠 < 𝑡, la variación en la posición 𝑋𝑡 − 𝑋𝑠 tiene


distribución 𝑁 (𝜇(𝑡 − 𝑠), 𝜎 𝑡 − 𝑠).

(c) En intervalos disjuntos (𝑠1 , 𝑡1 ), (𝑠2 , 𝑡2 ), . . . , (𝑠𝑛 , 𝑡𝑛 ), los incrementos en la posi-


ción 𝑋𝑡1 − 𝑋𝑠1 , 𝑋𝑡2 − 𝑋𝑠2 , . . . , 𝑋𝑡𝑛 − 𝑋𝑠𝑛 son variables aleatorias independientes.
(Constituye pues lo que se denomina un proceso de incrementos independientes).

La tercera condición puede reemplazarse por una condición equivalente, que tiene la
ventaja de que expresa la distribución conjunta de cualquier número finito de variables

5
del proceso1 . Concretamente:

(c’) Cualquiera que sean 𝑛 y 𝑡1 < 𝑡2 < . . . < 𝑡𝑛 , la variable aleatoria (𝑋𝑡1 , 𝑋𝑡2 , . . . , 𝑋𝑡𝑛 )
tiene distribución Normal 𝑛-dimensional.

En efecto, si se cumplen (a), (b) y (c), cualquier combinación lineal

𝑐1 𝑋𝑡1 + 𝑐2 𝑋𝑡2 + ⋅ ⋅ ⋅ + 𝑐𝑛 𝑋𝑡𝑛 =


= (𝑐1 + 𝑐2 + ⋅ ⋅ ⋅ + 𝑐𝑛 )𝑋𝑡1 + (𝑐2 + ⋅ ⋅ ⋅ + 𝑐𝑛 )(𝑋𝑡2 − 𝑋𝑡1 )
+(𝑐3 + ⋅ ⋅ ⋅ + 𝑐𝑛 )(𝑋𝑡3 − 𝑋𝑡2 ) + ⋅ ⋅ ⋅ + 𝑐𝑛 (𝑋𝑡𝑛 − 𝑋𝑡𝑛−1 )

es una combinación lineal de variables aleatorias independientes, con distribución Nor-


mal, y tiene por tanto distribución Normal. Esto indica que se cumple (c’).
Recı́procamente, si se cumplen (a), (b) y (c’), el vector de medias de (𝑋𝑡1 , 𝑋𝑡2 , . . . , 𝑋𝑡𝑛 )
tiene que ser
(𝜇𝑡1 , 𝜇𝑡2 , . . . , 𝜇𝑡𝑛 )
Además, si 𝑠 < 𝑡,
1
𝐸[𝑋𝑡 𝑋𝑠 ] = 𝐸[𝑋𝑡2 + 𝑋𝑠2 − (𝑋𝑡 − 𝑋𝑠 )2 ]
2
1[ 2
𝜎 𝑡 + 𝜇2 𝑡2 + 𝜎 2 𝑠 + 𝜇2 𝑠2 − 𝜎 2 (𝑡 − 𝑠) − 𝜇2 (𝑡 − 𝑠)2
]
=
2
= 𝜎 2 𝑠 + 𝜇2 𝑠𝑡

con lo cual
Cov(𝑋𝑠 , 𝑋𝑡 ) = 𝜎 2 𝑠
Dicho de modo más general, para cualquier par de instantes 𝑠 y 𝑡,

Cov(𝑋𝑠 , 𝑋𝑡 ) = 𝜎 2 mı́n(𝑠, 𝑡)

En consecuencia, si 𝑠1 < 𝑡1 < 𝑠2 < 𝑡2 , se tiene

Cov(𝑋𝑡1 − 𝑋𝑠1 , 𝑋𝑡2 − 𝑋𝑠2 ) = 𝜎 2 (𝑡1 − 𝑡1 − 𝑠1 + 𝑠1 ) = 0

de forma que, siendo normales, ambos incrementos son independientes. Por la misma
razón, cualquier número de incrementos correspondientes a intervalos disjuntos, como
tienen distribución Normal, son independientes. Es decir, se cumple la condición (c).
1
Pone de relieve, por consiguiente, de acuerdo con el teorema de Kolmogorov, que está determinada
la distribución global del proceso.

6
3. Definición del movimiento browniano y continuidad de
sus trayectorias
Un proceso estocástico que cumpla las condiciones (a), (b) y (c) o (c’), se denomina
proceso de Wiener o movimiento browniano de tendencia 𝜇 y parámetro de
varianza 𝜎 2 .
Para muchos propósitos, basta examinar el caso 𝜇 = 0 y 𝜎 2 = 1 puesto que puede
pasarse a un proceso con tales parámetros mediante la simple tipificación
𝑋𝑡 − 𝜇𝑡
𝑋𝑡′ =
𝜎

y el proceso original 𝑋𝑡 = 𝜎𝑋𝑡 + 𝜇𝑡 se obtiene mediante un cambio de escala y sumando
la función determinista 𝜇𝑡. Salvo indicación en contrario, 𝑋𝑡 representará desde ahora
un movimiento browniano normalizado.
Como cualquier proceso de incrementos independientes, el movimiento browniano es
un proceso de Markov, en el sentido de que
𝑃 {𝑋𝑠+𝑡 ∈ 𝐵 ∣ 𝑋𝑢 , 𝑢 ≤ 𝑠} = 𝑃 {𝑋𝑠+𝑡 ∈ 𝐵 ∣ 𝑋𝑠 }
siendo la función de transición
1

2 /2𝑡
𝑃 (𝑥, 𝑡, 𝐵) = 𝑃 {𝑋𝑠+𝑡 ∈ 𝐵 ∣ 𝑋𝑠 = 𝑥} = √ 𝑒−(𝑦−𝑥) 𝑑𝑦, (1)
2𝜋𝑡 𝐵
de densidad
1 −(𝑦−𝑥)2 /2𝑡
𝑝(𝑥, 𝑡, 𝑦) = √ 𝑒 , (2)
2𝜋𝑡
la que proporciona la probabilidad desde la posición 𝑥 de alcanzar, en un tiempo 𝑡, el
conjunto 𝐵:

𝑃 (𝑥, 𝑡, 𝐵) 𝐵

𝑠 𝑠+𝑡

Figura 4: Función de transición del Movimiento browniano

Sin embargo, también es interesante determinar la distribución de la posición del proce-


so condicionada simultáneamente por el pasado y el futuro. En este sentido se cumple:

7
Proposición 1 Si 𝑎 < 𝑡 < 𝑏, sea
(𝑏 − 𝑡)𝑋𝑎 + (𝑡 − 𝑎)𝑋𝑏 (𝑡 − 𝑎)(𝑏 − 𝑡)
𝛼(𝑡) = y 𝛽 2 (𝑡) =
𝑏−𝑎 𝑏−𝑎
entonces la variable aleatoria
𝑋𝑡 − 𝛼(𝑡)
𝑌𝑡 =
𝛽(𝑡)
tiene distribución 𝑁 (0, 1) y es independiente de 𝑋𝑢 para 𝑢 ≤ 𝑎 y 𝑢 ≥ 𝑏.
En efecto,
(𝑏 − 𝑡)𝑢 + (𝑡 − 𝑎)𝑢

⎨ 𝑢− = 0 si 𝑢 ≤ 𝑎


 𝑏−𝑎
𝐸[(𝑋𝑡 − 𝛼(𝑡))𝑋𝑢 ] =
⎩ 𝑡 − (𝑏 − 𝑡)𝑎 + (𝑡 − 𝑎)𝑏 = 0


si 𝑢 ≥ 𝑏

𝑏−𝑎
Ahora bien (𝑋𝑡 − 𝛼(𝑡), 𝑋𝑢 ) es una variable con distribución Normal bidimensional,
luego ambas componentes son independientes. Como (𝑋𝑡 − 𝛼(𝑡), 𝑋𝑢1 , 𝑋𝑢2 , . . . , 𝑋𝑢𝑛 )
tiene distribución Normal 𝑛 + 1-dimensional, el primer término es independiente de
todos los restantes.
𝑋𝑎

𝛽(𝑡)𝑌𝑡
𝑋𝑏
𝑋𝑡

𝑎 𝑡 𝑏
Figura 5: Interpolación de la trayectoria del Movimiento browniano

Además,
𝐸[(𝑋𝑡 − 𝛼(𝑡))2 ] =
= 𝑡 − 2𝐸[𝑋𝑡 𝛼(𝑡)] + 𝐸[𝛼2 (𝑡)]
(𝑏 − 𝑡)𝑎 + (𝑡 − 𝑎)𝑡 (𝑏 − 𝑡)2 𝑎 + (𝑡 − 𝑎)2 𝑏 + 2(𝑏 − 𝑡)(𝑡 − 𝑎)𝑎
= 𝑡−2 +
𝑏−𝑎 (𝑏 − 𝑎)2
(𝑏 − 𝑡)𝑎 + (𝑡 − 𝑎)𝑡 𝑎(𝑏 − 𝑎) + (𝑡 − 𝑎)2 (𝑏 − 𝑎)
2
= 𝑡−2 +
𝑏−𝑎 (𝑏 − 𝑎)2
(𝑡 − 𝑎)(𝑏 − 𝑡)
=
𝑏−𝑎

8
luego (𝑋𝑡 − 𝛼(𝑡))/𝛽(𝑡)) tiene distribución 𝑁 (0, 1).
La figura 5 ilustra el significado del resultado anterior. Si 𝑋𝑎 y 𝑋𝑏 son conocidos, 𝛼(𝑡)
es el segmento que une los puntos (𝑎, 𝑋𝑎 ) y (𝑏, 𝑋𝑏 ). El punto (𝑡, 𝑋𝑡 ) está situado a
distancia vertical 𝛽(𝑡)𝑌𝑡 del segmento, siendo 𝑌𝑡 una variable 𝑁 (0, 1), independiente de
𝑋𝑎 y 𝑋𝑏 .
El resultado anterior permite llevar a cabo la construcción explı́cita de un proceso
de Wiener cuyas trayectorias son funciones continuas, a partir de una sucesión de
variables aleatorias, {𝑌𝑛 }, independientes y con distribución 𝑁 (0, 1). La construcción
se circunscribe al intervalo de tiempos [0, 1], pero podrı́a prolongarse de forma análoga
en cualquier otro intervalo temporal.

(2)
𝑋𝑡
𝑌2 /2
(1)
𝑋𝑡
𝑌1 𝑌1

0 1 0 1 1
2

(4)
𝑋𝑡
(3) 𝑌7 /4
𝑋𝑡
√ 𝑌6 /4
𝑌3 / 8 𝑌5 /4
√ 𝑌8 /4
𝑌4 / 8

0 1 1 3 1 0 1 3 5 7 1
4 2 4 8 8 8 8

Figura 6: Construcción de una trayectoria del Movimiento browniano

La figura 6 muestra la manera de proceder. En primera aproximación, se considera el


(1)
segmento 𝑋𝑡 que une el origen con el punto (1, 𝑌1 ). En segundo lugar, en el punto
medio de dicho segmento se superpone la variación 𝑌2 /2 (como 𝑎 = 0 y 𝑏 = 1 es
(2) (3)
𝛽(1/2) = 1/2) para construir la poligonal 𝑋𝑡 . La aproximación
√ √ 𝑋𝑡 supone introducir
2
en los instantes 1/4 y 3/4 sendas variaciones 𝑌3 / 8 e 𝑌4 / 8 (pues 𝛽 (𝑡) = 1/8) y
construir la poligonal con esos dos nuevos vértices. La construcción prosigue de esta

9
(𝑛+1)
forma indefinidamente. La poligonal 𝑋𝑡 tiene 2𝑛 vértices, en los puntos 𝑘/2𝑛 con
(𝑛)
𝑘 = 1, 2, . . . , 2𝑛 ; los pares coinciden con los de 𝑋𝑡 mientras que los impares son nuevos
y están a distancia 𝑌𝑗 /2(𝑛+1)/2 de la poligonal anterior.
(𝑛)
Si 𝑍𝑡 representa la diferencia
(𝑛) (𝑛+1) (𝑛)
𝑍𝑡 = 𝑋𝑡 − 𝑋𝑡

será
(𝑛) 1
máx 𝑍𝑡 ≤ máx 𝑌𝑗
𝑡∈[0,1] 2(𝑛+1)/2 2𝑛−1 <𝑗≤2𝑛

de manera que, si 𝜆𝑛 = 4𝑛 log 2/2(𝑛+1)/2 , se tiene2 :

(𝑛)
∣𝑌𝑗 ∣ > 2(𝑛+1)/2 𝜆𝑛
{ } { }
𝑃 máx 𝑍𝑡 > 𝜆𝑛 ≤ 𝑃 máx
𝑡∈[0,1] 2𝑛−1 <𝑗≤2𝑛

≤ 2𝑛−1 𝑃 ∣𝑌𝑗 ∣ > 2(𝑛+1)/2 𝜆𝑛


{ }
∫ ∞
2𝑛 2
= √ 𝑒−𝑦 /2 𝑑𝑦
2𝜋 2(𝑛+1)/2 𝜆𝑛
𝑛 2
2𝑛 𝑒−2 𝜆𝑛
≤ √
2𝜋 2(𝑛+1)/2 𝜆𝑛
1
= √ √ .
2𝜋 2𝑛 4𝑛 log 2
Por consiguiente, la serie

∑ { (𝑛) }
𝑃 máx 𝑍𝑡 > 𝜆𝑛
𝑡∈[0,1]
𝑛=1
es convergente y, según el lema de Borel-Cantelli, esto indica que, con probabilidad
uno, se cumple a partir de un 𝑛0 en adelante

(𝑛) 4𝑛 log 2
máx 𝑍𝑡 ≤ (𝑛+1)/2 .
𝑡∈[0,1] 2
2
Es útil aquı́, por primera vez, la mitad de la desigualdad
( ) ∫ ∞
2 1 1 2 2 1
𝑒−𝑥 /2 − 3 ≤ 𝑒−𝑦 /2 𝑑𝑦 ≤ 𝑒−𝑥 /2
𝑥 𝑥 𝑥 𝑥
que se obtiene fácilmente a partir de
∫ ∞ ( ) ∫ ∞ ∫ ∞ ( )
−𝑦 2 /2 3 −𝑦 2 /2 −𝑦 2 /2 1
𝑒 1 − 4 𝑑𝑦 ≤ 𝑒 𝑑𝑦 ≤ 𝑒 1 + 2 𝑑𝑦
𝑥 𝑦 𝑥 𝑥 𝑦
pues las integrales de los extremos son los extremos de la primera desigualdad.

10
En consecuencia
𝑁 −1
(𝑁 ) (𝑛)

𝑋𝑡 = 𝑍𝑡
𝑛=1

es, con probabilidad uno, una sucesión convergente uniformemente en [0, 1], de funciones
continuas (poligonales). Ası́ pues, el lı́mite 𝑋𝑡 es, con probabilidad uno, una función
continua.
La construcción realizada muestra que en los racionales diádicos: 𝑘/2𝑛 con 𝑘 = 0, 1, . . . , 2𝑛
(𝑛)
y 𝑛 natural, las sucesivas aproximaciones 𝑋𝑡 tienen el mismo valor, a partir de un
𝑛, que coincide con el valor del lı́mite 𝑋𝑡 . Dichos valores son aleatorios (puesto que
dependen del resultado de las 𝑌𝑗 ) pero tienen la distribución adecuada para que coin-
cidan con las distribuciones que tendrı́a en dichos instantes un movimiento browniano.
De hecho, para 𝑘 impar,

(𝑛+1) 1 ( (𝑛) (𝑛)


) 𝑌𝑗
𝑋𝑘/2𝑛 = 𝑋(𝑘−1)/2𝑛 + 𝑋(𝑘+1)/2𝑛 + (𝑛+1)/2
2 2
Ası́ que un razonamiento recurrente prueba que sus distribuciones son normales y que

𝑘 𝑘′
[ ] ( )
(𝑛+1) (𝑛+1)
𝐸 𝑋𝑘/2𝑛 𝑋𝑘′ /2𝑛 = mı́n ,
2𝑛 2𝑛

Además, si 𝑡1 , 𝑡2 , . . . , 𝑡𝑝 son instantes cualesquiera dentro del intervalo [0, 1], toman-
do sucesiones de racionales diádicos 𝑟𝑗𝑘 cada una de las cuales converja hacia 𝑡𝑗 , la
continuidad de las trayectorias de 𝑋𝑡 asegura que
𝑐.𝑠.
(𝑋𝑟1𝑘 , 𝑋𝑟2𝑘 , . . . , 𝑋𝑟𝑝𝑘 ) −→ (𝑋𝑡1 , 𝑋𝑡2 , . . . , 𝑋𝑡𝑝 )

de forma que la variable lı́mite tiene distribución Normal 𝑝 dimensional, con covarianzas

𝐸[𝑋𝑡𝑖 𝑋𝑡𝑗 ] = lı́m 𝐸[𝑋𝑟𝑖𝑘 𝑋𝑟𝑗𝑘 ] = mı́n(𝑡𝑖 , 𝑡𝑗 ).


𝑘→∞

En definitiva, lo que se ha conseguido mediante la construcción anterior es probar el


siguiente resultado.

Proposición 2 Existe un movimiento browniano {𝑋𝑡 }𝑡≥0 cuyas trayectorias son, con
probabilidad uno, funciones continuas de 𝑡.

Sin duda, los fı́sicos siempre dieron por supuesto esta conclusión puesto que el movi-
miento de una partı́cula de polen en suspensión dentro de un fluido tiene que seguir
una trayectoria continua. Sin embargo, desde el punto de vista matemático es un he-
cho importante porque hay muy diversas probabilidades que pueden calcularse para

11
un movimiento browniano de trayectorias continuas, pero que no tienen sentido sin tal
hipótesis3 .
En consecuencia, a partir de ahora supondremos que {𝑋𝑡 } es un movimiento browniano
cuyas trayectorias son funciones continuas del tiempo. Consideraremos que dicho pro-
ceso está definido en un espacio de probabilidad (Ω, ℱ, 𝑃 ). Puede ser, por ejemplo, el
espacio que describe la elección al azar de la sucesión de variables normales {𝑌𝑗 } em-
pleadas en la construcción anterior. O también, el espacio 𝐶 de las funciones continuas
de [0, ∞) en 𝐼𝑅, dotado de la 𝜎-álgebra 𝒞 de los conjuntos cilı́ndricos, de la forma:

{𝑓 ∣ 𝑓 (𝑡1 ) ∈ 𝐵1 , 𝑓 (𝑡2 ) ∈ 𝐵2 , . . . , 𝑓 (𝑡𝑛 ) ∈ 𝐵𝑛 }

(donde 𝑛 es finito, y 𝐵1 , 𝐵2 , . . . , 𝐵𝑛 son conjuntos de Borel) y de la distribución que la


condición (c’) especifica sobre (𝐶, 𝒞).
En cualquier caso, asociada a cada suceso elemental 𝜔 ∈ Ω hay una trayectoria 𝑋𝑡 (𝜔)
que puede seguir el movimiento browniano y que es una función fija del tiempo,

𝑋𝑡 (𝜔) : [0, ∞) −→ 𝐼𝑅.

3
Un ejemplo muy simple puede aclarar el tipo de dificultades que se plantean con cualquier proceso
estocástico en tiempo continuo. Supongamos que {𝑋𝑡 } es un proceso estocástico con

𝑃 {𝑋𝑡 = 0} = 1

para cualquier instante 𝑡. Esto es ası́, por ejemplo, para un proceso cuyas trayectorias permanecen
constantemente en el valor cero y que cumple, por consiguiente,

𝑃 {∣𝑋𝑡 ∣ ≤ 1/2 ∀𝑡} = 1

Sin embargo, si se elige un punto 𝜏 al azar en el intervalo [0, 1] y se considera el proceso


{
′ 0 si 𝑡 ∕= 𝜏
𝑋𝑡 =
1 si 𝑡 = 𝜏

sigue siendo cierto que 𝑃 {𝑋𝑡′ = 0} = 1 para cualquier 𝑡 (porque la probabilidad de que sea 𝜏 = 𝑡 es
cero). Sin embargo, ahora
𝑃 {∣𝑋𝑡′ ∣ ≤ 1/2 ∀𝑡} = 0.
𝑐.𝑠.
Esto muestra que existen procesos que cumplen 𝑋𝑡 = 𝑋𝑡′ para cada 𝑡 (y cualquier número de sus
variables tienen, por consiguiente, la misma distribución) y que, a pesar de ello, poseen propiedades
muy diversas de sus trayectorias: unas son siempre continuas y otras no lo son nunca; permanecen
acotadas por 1/2 todas ellas, en un caso, y ninguna en el otro caso; etc.

12
4. Propiedades de las trayectorias
Para una movimiento browniano con trayectorias continuas, puede estudiarse con de-
tenimiento el comportamiento cualitativo de sus trayectorias.
Un primer resultado consiste en probar que una partı́cula, sometida al movimiento
browniano unidimensional, llega a alejarse de la posición de partida tanto como se
quiera, pero siempre regresa nuevamente a su origen. Más exactamente:

Proposición 3

𝑃 {lı́m sup 𝑋𝑡 = ∞} = 𝑃 {lı́m inf 𝑋𝑡 = −∞} = 1


𝑡→∞ 𝑡→∞

Una función continua con lı́mite superior igual a ∞ y lı́mite inferior igual a −∞,
alcanzará indefinidamente valores arbitrariamente grandes, entre los cuales se intercalan
valores negativos arbitrariamente grandes. De esta forma, no tiene más remedio que
cortar, indefinidamente el eje de abscisas, volviendo a tomar el valor 0 en una sucesión
de instantes que tiende hacia infinito. √
Para probar la afirmación anterior, por un lado, como 𝑋𝑟𝑘 / 𝑟 𝑘 tiene distribución
𝑁 (0, 1) será (véase la nota (2))
√ 1 𝑒−4,5 log 𝑘 1
𝑝𝑘 = 𝑃 {𝑋𝑟𝑘 ≤ −3 𝑟 𝑘 log 𝑘} ≤ √ √ =√ √ .
2𝜋 3 log 𝑘 2𝜋𝑘 4,5 log 𝑘

Por otra parte, como 𝑋𝑟𝑘+1 − 𝑋𝑟𝑘 / 𝑟 𝑘 (𝑟 − 1) tiene distribución 𝑁 (0, 1) será

𝑞𝑘 = 𝑃 {𝑋𝑟𝑘+1 − 𝑋𝑟𝑘 ≥ 2𝑟 𝑘 (𝑟 − 1) log 𝑘}
( )
1 − log 𝑘 1 1 2 log 𝑘 − 1
≥ √ 𝑒 √ − √ 3
=√ √ .
2𝜋 2 log 𝑘 ( 2 log 𝑘) 2𝜋 𝑘 ( 2 log 𝑘)3
∑ ∑
Como 𝑝𝑘 < ∞ y 𝑞𝑘 = ∞, el lema de Borel-Cantelli asegura que, con probabilidad
uno, se cumplirá

𝑋𝑟𝑘 ≥ −3 𝑟 𝑘 log 𝑘 a partir de un cierto 𝑘0

𝑋𝑟𝑘+1 − 𝑋𝑟𝑘 ≥ 2𝑟 𝑘 (𝑟 − 1) log 𝑘 para infinitos valores de 𝑘

Con lo cual será [√ ]√


𝑋𝑟𝑘+1 ≥ 2(𝑟 − 1) − 3 𝑟 𝑘 log 𝑘

para infinitos valores de 𝑘. Tomando, por ejemplo, 𝑟 = 6 será


√ √
𝑋6𝑘+1 ≥ ( 10 − 3) 6𝑘 log 𝑘

13
para infinitos valores de 𝑘. De manera que lı́m sup 𝑋𝑛 = ∞. La afirmación contraria se
obtiene simétricamente.
Hay una manera sencilla de relacionar el comportamiento a gran escala del movimien-
to browniano con su comportamiento local en los alrededores del origen de tiempos.
Consiste en observar que

Proposición 4 El proceso {𝑡𝑋1/𝑡 } es un movimiento browniano.

En efecto, no cabe duda de que las distribuciones conjuntas del proceso 𝑋𝑡′ = 𝑡𝑋1/𝑡 son
normales y, además,

𝐸[𝑋𝑠′ 𝑋𝑡′ ] = 𝐸[𝑠𝑋1/𝑠 𝑡𝑋1/𝑡 ] = 𝑠𝑡 mı́n(1/𝑠, 1/𝑡) = mı́n(𝑠, 𝑡)

En cuanto a la condición inicial, en virtud de la ley fuerte de los grandes números,


𝑋𝑛 𝑋1 + 𝑋2 − 𝑋1 + . . . + 𝑋𝑛 − 𝑋𝑛−1 𝑐.𝑠
= −→ 0
𝑛 𝑛
luego
′ 1 𝑐.𝑠.
𝑋1/𝑛 = 𝑋𝑛 −→ 0
𝑛
𝑐.𝑠.
y, puesto que las trayectorias de 𝑋𝑡′ son continuas, tiene que ser 𝑋0′ = 0.
Los dos últimos resultados tienen una consecuencia inmediata sobre el carácter vibra-
torio de movimiento browniano:

Proposición 5 Con probabilidad 1, para cada 𝜀 > 0 es

máx 𝑋𝑡 > 0 y mı́n 𝑋𝑡 < 0


𝑡≤𝜀 𝑡≤𝜀

En efecto, para el proceso 𝑋𝑡′ = 𝑡𝑋1/𝑡 se cumple, con probabilidad uno,

∀𝐾 > 0 ∃𝑆, 𝑇 > 𝐾 tales que 𝑋𝑆′ < 0 y 𝑋𝑇′ > 0.

Traducido en términos de 𝑋𝑡 esto significa que

∀𝜀 > 0 ∃𝑠, 𝑡 < 𝜀 tales que 𝑋𝑠 < 0 y 𝑋𝑡 > 0.

El resultado anterior muestra que cualquier trayectoria del movimiento browniano tie-
ne una infinidad de ceros en cualquier entorno del instante 𝑡 = 0. Tal situación se
repetirá cada vez que el proceso alcance nuevamente el origen, ası́ que el conjunto de
instantes en los que una trayectoria se anula es un conjunto peculiar. De hecho:

14
Proposición 6 Con probabilidad uno, el conjunto

𝑆0 (𝜔) = {𝑡 ≥ 0 ∣ 𝑋𝑡 (𝜔) = 0}

es un conjunto cerrado, no acotado, de longitud cero y sin puntos aislados. En conse-


cuencia, es un conjunto no numerable.

En efecto, 𝑆0 (𝜔) es cerrado siempre que la trayectoria 𝑋𝑡 (𝜔) sea una función continua;
ası́ que lo es con probabilidad uno. De la misma manera, en virtud de la proposición 3,
se trata de un conjunto no acotado.
Como 𝑃 {𝑋𝑡 = 0} = 0 para cada 𝑡 ≥ 0, se tiene
∫ ∞
𝑃 {𝑋𝑡 = 0} 𝑑𝑡 = 0
0

Es decir ∫ ∞∫
𝐼𝑆0 (𝜔) (𝑡) 𝑑𝑃 𝑑𝑡 = 0
0 Ω
o bien, aplicando el teorema de Fubini,
∫ ∫ ∞
𝐼𝑆0 (𝜔) (𝑡) 𝑑𝑡 𝑑𝑃 = 0
Ω 0
∫∞
con lo cual 0 𝐼𝑆0 (𝜔) 𝑑𝑡 que representa la longitud del conjunto 𝑆0 (𝜔) tiene que ser
nula con probabilidad uno.
Según la proposición anterior, con probabilidad uno, el instante 0 no es un punto aislado
de 𝑆0 (𝜔). Dado cualquier racional 𝑟 > 0, el instante

𝜏𝑟 = ı́nf{𝑡 ≥ 𝑟 ∣ 𝑋𝑡 = 0}

es un instante finito en el cual (por continuidad) es 𝑋𝜏𝑟 = 0. Además, a la derecha de


𝜏𝑟 el proceso se comporta exactamente igual que a la derecha del origen; ası́ que, con
probabilidad uno, 𝜏𝑟 no es un punto aislado de 𝑆0 (𝜔). Se cumple pues

𝑃 {𝜔 ∣ ∀𝑟 ≥ 0 𝜏𝑟 (𝜔) no es un punto aislado de 𝑆0 (𝜔)} = 1

Ahora bien, en el suceso anterior, el conjunto 𝑆0 (𝜔) no tiene puntos aislados, ya que si
𝑡 ∈ 𝑆0 (𝜔) no tuviese puntos de 𝑆0 (𝜔) en un intervalo (𝑡 − 𝛿, 𝑡), entonces 𝑡 coincidirı́a
con algún 𝜏𝑟 y no serı́a, por tanto, punto aislado en 𝑆0 (𝜔).
Como es fácil ver, cualquier conjunto cerrado y sin puntos aislados en la recta real no
puede ser numerable.
El célebre conjunto de Cantor es el ejemplo tı́pico de conjunto cerrado, sin puntos ais-
lados y de longitud cero (contenido en el intervalo [0, 1], aunque se puede repetir su

15
construcción en cada intervalo [𝑛, 𝑛 + 1]). Cualquier trayectoria del movimiento brow-
niano traza, con sus cortes al eje de abscisas, un conjunto con similares caracterı́sticas,
aunque obviamente mucho menos regular. La figura siguiente intenta dar una idea apro-
ximada del tipo de trayectorias del movimiento browniano y de las caracterı́sticas del
conjunto 𝑆0 .

Naturalmente, el origen no tiene ninguna propiedad peculiar (excepto que es la posición


de partida). Para cualquier punto 𝑦 ∈ 𝐼𝑅, el conjunto de instantes en que la trayectoria
alcanza el nivel 𝑦:
𝑆𝑦 (𝜔) = {𝑡 ≥ 0 ∣ 𝑋𝑡 (𝜔) = 𝑦}
tiene las mismas propiedades indicadas en la proposición anterior.
Las afirmaciones anteriores ponen de relieve el carácter sumamente irregular de la
trayectorias de un movimiento browniano. De hecho puede probarse que son funciones
que no son derivables en ningún punto.
Proposición 7 Con probabilidad uno, la función 𝑋𝑡 (𝜔) no es derivable en ningún
punto.
La demostración en el intervalo [0, 1] puede hacerse como sigue. Obsérvese que si una
función 𝑓 : [0, 1] −→ 𝐼𝑅 es derivable en un punto 𝑠 ∈ [0, 1), tienen que existir números
naturales 𝑎 y 𝑚 tales que
∀𝑛 ≥ 𝑚 ∀𝑡 ∈ (𝑠, 𝑠 + 4/𝑛) es ∣𝑓 (𝑡) − 𝑓 (𝑠)∣ ≤ 𝑎(𝑡 − 𝑠)

16
Con lo cual, si 𝑘 = [𝑛𝑠] + 1, como 𝑠 ≤ 𝑘/𝑛 ≤ (𝑘 + 3)/𝑛 ≤ 𝑠 + 4/𝑛, será
( ) ( )
𝑓 𝑘 + 3 − 𝑓 𝑘 + 2 ≤ 7𝑎

𝑛 𝑛 𝑛
( ) ( )
𝑓 𝑘 + 2 − 𝑓 𝑘 + 1 ≤ 5𝑎

𝑛 𝑛 𝑛
( ) ( )
𝑓 𝑘 + 1 − 𝑓 𝑘 ≤ 3𝑎

𝑛 𝑛 𝑛

Es decir, si ( ) ( )
𝑘+𝑖 𝑘 + 𝑖 − 1
Δ𝑘,𝑛(𝑓 ) = máx 𝑓 −𝑓
𝑖=1,2,3 𝑛 𝑛

tiene que ser Δ𝑘,𝑛 (𝑓 ) ≤ 7𝑎/𝑛.


Resulta pues que el conjunto de trayectorias del movimiento browniano que son deri-
vables en algún punto del intervalo [0, 1] está incluido en
∞ ∪
∪ ∞ ∩
{ }
∃𝑘 ≤ 𝑛 − 3 para el cual Δ𝑘,𝑛 (𝑋𝑡 ) ≤ 7𝑎/𝑛
𝑎=1 𝑚=1 𝑛≥𝑚

Ahora bien
{ 7𝑎 } { }
𝑃 ∃𝑘 ≤ 𝑛 − 3 con Δ𝑘,𝑛 (𝑋𝑡 ) ≤ ≤ (𝑛 − 2)𝑃 Δ1,𝑛 (𝑋𝑡 ) ≤ 7𝑎/𝑛
𝑛
{ }3
= (𝑛 − 2)𝑃 ∣𝑋1/𝑛 ∣ ≤ 7𝑎/𝑛
[√ ∫ ]3
7𝑎/𝑛
𝑛 2
= (𝑛 − 2) √ 𝑒−𝑥 𝑛/2 𝑑𝑥
2𝜋 −7𝑎/𝑛
[ ∫ 7𝑎 ]3
1 −𝑦 2 /2𝑛
= (𝑛 − 2) √ 𝑒 𝑑𝑦
2𝜋𝑛 −7𝑎
(14𝑎)3
≤ (𝑛 − 2) √ −→ 0
( 2𝜋𝑛)3

cuando 𝑛 tiende a infinito. Luego


⎛ ⎞
∩ { }
7𝑎 ⎠
𝑃⎝ ∃𝑘 ≤ 𝑛 − 3 con Δ𝑘,𝑛 (𝑋𝑡 ) ≤ =0
𝑛
𝑛≥𝑚

para cualesquiera 𝑎 y 𝑚 y, en definitiva, el conjunto de trayectorias que son derivables


en algún punto tiene probabilidad nula.

17
El primer ejemplo de función continua, no derivable en ningún punto, no fue descubierto
hasta el siglo XIX por Weiertrass; sin embargo, el movimiento browniano traza este tipo
de trayectorias con toda naturalidad.
De la conclusión anterior se siguen algunas consecuencias interesantes. En primer lugar,
como toda función de variación acotada en un intervalo es derivable en casi todos los
puntos del intervalo (todos menos los de un conjunto de longitud cero), resulta que
con probabilidad uno, las trayectorias del movimiento browniano no son de variación
acotada en ningún intervalo de tiempos. Es decir, para cualquier intervalo de tiempos
[𝑎, 𝑏] existen particiones 𝑎 = 𝑡0 < 𝑡1 < . . . < 𝑡𝑛 = 𝑏 tales que
𝑛

∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣
𝑖=1

es arbitrariamente grande. En particular, como cualquier función monótona en un in-


tervalo es de variación acotada, con probabilidad uno, las trayectorias del movimiento
browniano no son monótonas en ningún intervalo.
Además, como cualquier función continua que no es monótona en un intervalo tiene en
su interior al menos un extremo relativo, se deduce que las trayectorias del movimiento
browniano tiene extremos relativos en cualquier intervalo de tiempos. Dicho de otro
modo, el conjunto de instantes en los que la trayectoria del movimiento browniano
presenta extremos relativos es denso en [0, ∞). Puede probarse, no obstante, que cada
extremo relativo es estricto; lo cual obliga a que haya un número numerable de extremos.
Esto contrasta con la existencia de un número no numerable de ceros.
Corroborando la afirmación de que las trayectorias del movimiento browniano no son
funciones de variación acotada, se puede calcular su variación cuadrática. Concreta-
mente es
𝑘𝑛

lı́m ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 = 𝑏 − 𝑎
𝑛→∞
𝑖=1
a lo largo de cualquier sucesión de particiones del intervalo [𝑎, 𝑏] cuyo radio tiende a
cero. Expresado en la forma
∫ 𝑏 ∫ 𝑏
2
[𝑑𝑋𝑡 ] = 𝑏 − 𝑎 = 𝑑𝑡
𝑎 𝑎

la conclusión anterior puede interpretarse en en sentido de que

[𝑑𝑋𝑡 ]2 = 𝑑𝑡.

Propiedad sorprendente si se compara con el análisis habitual de las funciones deri-


vables, para las que se cumple
𝑑𝑓 (𝑡) = 𝑓 ′ (𝑡) 𝑑𝑡.

18
Formalmente el enunciado es el siguiente
Proposición 8 Sea 𝑎 = 𝑡0 < 𝑡1 < . . . < 𝑡𝑘𝑛 = 𝑏 una sucesión de particiones del
intervalo [𝑎, 𝑏] de radios
𝛿𝑛 = máx(𝑡𝑖 − 𝑡𝑖−1 )
𝑖≤𝑘𝑛
que tienden a cero cuando 𝑛 → ∞. Entonces
𝑘𝑛
𝑚.𝑐.

∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 −→ 𝑏 − 𝑎
𝑖=1
∑∞
Y, si 1 𝛿𝑛 < ∞, también es
𝑘𝑛
𝑐.𝑠.

∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 −→ 𝑏 − 𝑎
𝑖=1

En efecto,
𝑘𝑛
∑ 𝑘𝑛

2
∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 − (𝑡𝑖 − 𝑡𝑖−1 )
[ ]
∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣ − (𝑏 − 𝑎) =
𝑖=1 𝑖=1
∑𝑘𝑛
∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 − 𝐸[(𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 )2 ]
[ ]
=
𝑖=1

de forma que se trata de una suma de sumandos independientes y de media cero. Por
consiguiente, su varianza vale
⎡(
𝑘𝑛
)2 ⎤

𝐸⎣ ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 − (𝑏 − 𝑎) ⎦ =
𝑖=1
𝑘𝑛 [(
∑ )2 ]
= 𝐸 ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 − (𝑡𝑖 − 𝑡𝑖−1 )
𝑖=1
𝑘𝑛
[( )2 ]
∑ ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2
= 𝐸 −1 (𝑡𝑖 − 𝑡𝑖−1 )2
𝑡𝑖 − 𝑡𝑖−1
𝑖=1
𝑘𝑛

2 2
= 𝐸[(𝑈 − 1) ] (𝑡𝑖 − 𝑡𝑖−1 )2
𝑖=1

donde 𝑈 es una variable con distribución 𝑁 (0, 1). Se tiene, por tanto,
⎡(
𝑘𝑛
)2 ⎤

𝐸⎣ ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣2 − (𝑏 − 𝑎) ⎦ ≤ 𝐸[(𝑈 2 − 1)2 ] (𝑏 − 𝑎)𝛿𝑛
𝑖=1

19
lo cual tiende a cero cuando 𝑛 crece y establece la convergencia en media cuadrática
del enunciado.
Por otra parte, según la desigualdad de Tchebychev, es
{ 𝑘 }
∑ 𝑛
2
𝐸[(𝑈 2 − 1)2 ](𝑏 − 𝑎)𝛿𝑛
𝑃 ∣𝑋𝑡𝑖 − 𝑋𝑡𝑖−1 ∣ − (𝑏 − 𝑎) ≥ 𝜀 ≤

𝜀
𝑖=1

de forma que, si 𝛿𝑛 < ∞, el lema de Borel-Cantelli garantiza que, con probabilidad
uno, se cumple 𝑘
∑ 𝑛
2
∣𝑋 − 𝑋 ∣ − (𝑏 − 𝑎) ≤𝜀

𝑡𝑖 𝑡𝑖−1

𝑖=1

a partir de un 𝑛 en adelante. Es decir, la convergencia casi segura contenida en el


enunciado.
Las conclusiones anteriores ponen de manifiesto que las trayectorias del movimiento
browniano tienen un carácter vibratorio muy caracterı́stico. No obstante, en sentido
contrario, cualquier función continua puede ser uniformemente aproximada por una
trayectoria posible del movimiento browniano. Más exactamente, puede probarse el
resultado siguiente:

Proposición 9 Si 𝑓 es cualquier función continua definida en el intervalo [0, 1], con


𝑓 (0) = 0, para cualquier 𝜀 > 0 es

𝑃 {∣𝑋𝑡 − 𝑓 (𝑡)∣ ≤ 𝜀 ∀𝑡 ∈ [0, 1]} > 0

𝑓 +𝜀

0 1
𝑓

𝑓 −𝜀
Figura 7: Es positiva la probabilidad de que la trayectoria no salga de la banda.

Según esto, cualquier conjunto de trayectorias del movimiento browniano que tenga
probabilidad uno de ocurrir, es un conjunto denso en el espacio 𝐶0 [0, 1] de las funciones
continuas en [0, 1] que cumplen 𝑓 (0) = 0.

20
5. El principio de reflexión y sus consecuencias
Al margen de las propiedades cualitativas descritas en la sección anterior, puede estu-
diarse la distribución de probabilidad de diversas cantidades relacionadas con la evolu-
ción del movimiento browniano en cualquier intervalo fijo de tiempo.
La herramienta adecuada para ello es el principio de reflexión cuyo contenido es el
siguiente:

𝜏𝑥
Figura 8: Principio de reflexión

Fijado cualquier nivel 𝑥 > 0, la trayectoria del movimiento browniano alcanzará dicho
nivel en un determinado instante aleatorio 𝜏𝑥 . La propiedad de Markov implica que
el proceso renace a partir del punto (𝜏𝑥 , 𝑥) con las mismas propiedades con las que
arrancó del origen. En particular, sus incrementos tienen distribución Normal, simétrica
alrededor de cero, y por consiguiente cualquier serie de desplazamientos y sus simétricos
tienen la misma probabilidad de ocurrir. Ası́ pues, la misma probabilidad hay de que el
proceso siga un determinado conjunto de trayectorias, como de que siga el conjunto de
trayectorias simétricas, respecto a la recta horizontal de nivel 𝑥, a partir del punto 𝜏𝑥 .
Expresado con precisión, el principio de reflexión afirma:
Proposición 10 El proceso
{
𝑋𝑡 si 𝑡 < 𝜏𝑥
𝑋𝑡′ =
2𝑥 − 𝑋𝑡 si 𝑡 ≥ 𝜏𝑥
es un movimiento browniano (con la misma distribución que el proceso 𝑋𝑡 ).

5.1. La distribución del máximo


Consideremos entonces las variables aleatorias
𝑀𝑡 = máx 𝑋𝑢 y 𝜏𝑥 = ı́nf{𝑢 ≥ 0 ∣ 𝑋𝑢 = 𝑥}
𝑢≤𝑡

21
Es evidente que los sucesos
{𝑀𝑡 ≥ 𝑥} y {𝜏𝑥 ≤ 𝑡}
coinciden. Además, según el principio de reflexión
𝑃 {𝜏𝑥 ≤ 𝑡, 𝑋𝑡 < 𝑦} = 𝑃 {𝜏𝑥 ≤ 𝑡, 𝑋𝑡 > 2𝑥 − 𝑦} = 𝑃 {𝑋𝑡 > 2𝑥 − 𝑦}
para 𝑦 ≤ 𝑥; o bien

1

2 /2𝑡
𝑃 {𝑀𝑡 ≥ 𝑥, 𝑋𝑡 < 𝑦} = 𝑃 {𝑋𝑡 > 2𝑥 − 𝑦} = √ 𝑒−𝑢 𝑑𝑢 (3)
2𝜋𝑡 2𝑥−𝑦

2𝑥 − 𝑦
𝑥
𝑦

𝜏𝑥

Figura 9: Distribución del máximo


En virtud de lo anterior, la densidad conjunta de 𝑀𝑡 y 𝑋𝑡 es
2 2
𝑓𝑀𝑡 ,𝑋𝑡 (𝑥, 𝑦) = √ (2𝑥 − 𝑦)𝑒−(2𝑥−𝑦) /2𝑡 (4)
𝑡 2𝜋𝑡
para 𝑦 ≤ 𝑥 y 𝑥 > 0. En particular, como
𝑃 {𝑀𝑡 ≥ 𝑥} = 𝑃 {𝑀𝑡 ≥ 𝑥, 𝑋𝑡 < 𝑥} + 𝑃 {𝑋𝑡 ≥ 𝑥} = 2𝑃 {𝑋𝑡 ≥ 𝑥} (5)
la densidad marginal de 𝑀𝑡 es
2 2
𝑓𝑀𝑡 (𝑥) = √ 𝑒−𝑥 /2𝑡 (6)
2𝜋𝑡
para 𝑥 > 0. Lo cual indica que 𝑀𝑡 tiene la misma distribución que ∣𝑋𝑡 ∣.
Por simetrı́a, la distribución del mı́nimo 𝑚𝑡 = mı́n𝑢≤𝑡 𝑋𝑡 es idéntica a la de 𝑀𝑡 , mientras
que (𝑚𝑡 , 𝑋𝑡 ) tiene la misma distribución que (−𝑀𝑡 , 𝑋𝑡 ).

22
5.2. La distribución de 𝑀𝑡 − 𝑋𝑡
La densidad conjunta de (𝑀𝑡 , 𝑋𝑡 ), expresada por (4), permite hallar de forma inmediata
la densidad conjunta de (𝑀𝑡 , 𝑀𝑡 − 𝑋𝑡 ). Se obtiene
2 2
𝑓𝑀𝑡 ,𝑀𝑡 −𝑋𝑡 (𝑢, 𝑣) = √ (𝑢 + 𝑣)𝑒−(𝑢+𝑣) /2𝑡 (7)
𝑡 2𝜋𝑡
en la región 𝑢, 𝑣 ≥ 0. En dicha densidad 𝑢 y 𝑣 son intercambiables, de manera que la
marginal de 𝛿𝑡 = 𝑀𝑡 − 𝑋𝑡 es la misma que la de 𝑀𝑡 y coincide pues con la de ∣𝑋𝑡 ∣. Por
simetrı́a, lo mismo ocurre con 𝛿𝑡′ = 𝑋𝑡 − 𝑚𝑡 .

5.3. La distribución de 𝜏𝑥
Por otra parte, como

𝑃 {𝜏𝑥 ≤ 𝑡} = 𝑃 {𝑀𝑡 ≥ 𝑥} = 2𝑃 {𝑋𝑡 ≥ 𝑥}


∫ ∞
2 2
= √ 𝑒−𝑢 /2𝑡 𝑑𝑢
2𝜋𝑡 𝑥
∫ ∞
2 −𝑣2 /2
= √ √ 𝑒 𝑑𝑣
2𝜋 𝑥/ 𝑡
la densidad de 𝜏𝑥 resulta
𝑥 2
𝑓𝜏𝑥 (𝑡) = √ 𝑡−3/2 𝑒−𝑥 /2𝑡 (8)
2𝜋
para 𝑡 > 0. Es inmediato comprobar que 𝑃 {𝜏𝑥 < ∞} = 1, por grande que sea 𝑥, como
tenı́a que ser en vista de la proposición 3. Sin embargo,
∫ ∞
𝑥 2
𝐸[𝜏𝑥 ] = √ 𝑡−1/2 𝑒−𝑥 /2𝑡 𝑑𝑡
2𝜋 0
∫ ∞
1 2 2𝑥2
= √ 𝑒−𝑠 /2 𝑠 3 𝑑𝑠
2𝜋 0 𝑠
2 ∫ ∞
2𝑥 2 𝑑𝑠
= √ 𝑒−𝑠 /2 2
2𝜋 0 𝑠
2 ∫ 1
2𝑥 𝑑𝑠
≥ √ 𝑒−1/2 2
=∞
2𝜋 0 𝑠

De manera que, por pequeño que sea 𝑥, el tiempo medio que tarda el movimiento
browniano en alcanzar el nivel 𝑥 es infinito; lo cual, en vista de la proposición 5, no
deja de ser sorprendente.
Por supuesto, la simetrı́a del movimiento browniano indica, para 𝑥 < 0, que 𝜏𝑥 tiene la
misma distribución que 𝜏∣𝑥∣ .

23
5.4. La ley del arco seno
Conocer la distribución de 𝜏𝑥 permite calcular la probabilidad de que la trayectoria de
un movimiento browniano se anule en un intervalo cualquiera (𝑡1 , 𝑡2 ). En efecto, si

𝑝 = 𝑃 {∃𝑡 ∈ (𝑡1 , 𝑡2 ) tal que 𝑋𝑡 = 0}

su valor puede calcularse descomponiendo dicha probabilidad en función de la posición


que el proceso ocupe en el instante 𝑡1 ; esto es
∫ ∞
1 2
𝑝 = √ 𝑒−𝑥 /2𝑡1 𝑃 {∃𝑡 ∈ (0, 𝑡2 − 𝑡1 ) tal que 𝑋𝑡 = −𝑥} 𝑑𝑥
2𝜋𝑡1 −∞
puesto que la probabilidad de que, a partir de la posición (𝑡1 , 𝑥), el proceso alcance
el origen antes del instante 𝑡2 es la misma que la de que desde el origen se alcance la
posición −𝑥 antes del instante 𝑡2 − 𝑡1 . Ası́ pues
∫ ∞
1 2
𝑝 = √ 𝑒−𝑥 /2𝑡1 𝑃 {𝜏−𝑥 ≤ 𝑡2 − 𝑡1 } 𝑑𝑥
2𝜋𝑡1 −∞
∫ ∞ ∫ 𝑡2 −𝑡1
2 −𝑥2 /2𝑡1 𝑥 2
= √ 𝑒 √ 𝑡−3/2 𝑒−𝑥 /2𝑡 𝑑𝑡 𝑑𝑥
2𝜋𝑡1 0 2𝜋 0
∫ 𝑡2 −𝑡1 ∫ ∞
1 2
= √ 𝑡−3/2 𝑥𝑒−𝑥 (𝑡1 +𝑡)/2𝑡𝑡1 𝑑𝑥 𝑑𝑡
𝜋 𝑡1 0 0
∫ 𝑡2 −𝑡1
1 𝑡1 𝑡
= √ 𝑡−3/2 𝑑𝑡
𝜋 𝑡1 0 (𝑡 + 𝑡1 )
√ ∫ 𝑡2 −𝑡1
𝑡1 𝑑𝑡
= √
𝜋 0 (𝑡 + 𝑡1 ) 𝑡
∫ √(𝑡2 −𝑡1 )/𝑡1
2 𝑑𝑠
= (𝑠2 = 𝑡/𝑡1 )
𝜋 0 1 + 𝑠2

2 𝑡2 − 𝑡1 2 √ 2 √
= arctg = arccos 𝑡1 /𝑡2 = 1 − arcsen 𝑡1 /𝑡2
𝜋 𝑡1 𝜋 𝜋
Resultado que se conoce con el nombre de ley del arco seno para el movimiento brow-
niano. De ella se deducen un buen número de consecuencias.
En primer lugar, fijado cualquier instante 𝑡 > 0, sea

𝑈0 = máx{𝑢 ∈ (0, 𝑡) ∣ 𝑋𝑢 = 0}

la posición del último cero anterior a 𝑡. Desde luego, si 𝑢 < 𝑡, es


2 √
𝑃 {𝑈0 < 𝑢} = 𝑃 {∕ ∃𝑠 ∈ (𝑢, 𝑡) con 𝑋𝑠 = 0} = arcsen 𝑢/𝑡
𝜋

24
De manera que 𝑈0 tiene densidad
1
𝑓𝑈0 (𝑢) = √ para 0 < 𝑢 < 𝑡. (9)
𝜋 𝑢(𝑡 − 𝑢)

Es inmediato, según esto, que 𝜃 = 2arcsen 𝑈0 /𝑡 tiene distribución uniforme en (0, 𝜋);
de forma que 𝑈0 tiene la misma distribución que la proyección sobre el eje de tiempos
de un punto elegido al azar sobre la semicircunferencia de diámetro (0, 𝑡).
De manera similar, puede considerarse la posición de cero siguiente a un instante arbi-
trario 𝑡 > 0:
𝑈1 = mı́n{𝑢 ≥ 𝑡 ∣ 𝑋𝑢 = 0}
Para 𝑣 > 𝑡 es
2 √
𝑃 {𝑈1 < 𝑣} = 𝑃 {∃𝑠 ∈ (𝑡, 𝑣) con 𝑋𝑠 = 0} = arccos 𝑡/𝑣
𝜋
luego la densidad de 𝑈1 es

𝑡
𝑓𝑈1 (𝑣) = √ para 𝑣 > 𝑡. (10)
𝜋𝑣 𝑣 − 𝑡

Análogamente la distribución conjunta de (𝑈0 , 𝑈1 ) se deduce de que, cuando 0 < 𝑢 <


𝑡 < 𝑣, es
2 √
𝑃 {𝑈0 < 𝑢, 𝑈1 > 𝑣} = 𝑃 {∕ ∃𝑠 ∈ (𝑢, 𝑣) con 𝑋𝑠 = 0} = arcsen 𝑢/𝑣;
𝜋
con lo cual la densidad conjunta resulta
1
𝑓𝑈0 ,𝑈1 (𝑢, 𝑣) = √ √ en la región 0 < 𝑢 < 𝑡 < 𝑣. (11)
2𝜋 𝑢 (𝑣 − 𝑢)3
.

5.5. La distribución conjunta de 𝑀𝑡 y 𝑚𝑡


La distribución conjunta de 𝑚𝑡 y 𝑀𝑡 es algo más complicada de calcular. Sean 𝑎 < 0 < 𝑏
e 𝐼 un conjunto de Borel contenido en (−∞, 𝑎], será entonces

𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 𝐼} = 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 2𝑏 − 𝐼}

puesto que en ambos miembros ha de ser 𝜏𝑏 ≤ 𝑡 y se puede aplicar el principio de


reflexión en 𝑏.

25
2𝑏 − 𝐼

𝑎
𝐼

Figura 10: Distribución del máximo y el mı́nimo

En consecuencia
𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 𝐼} = 𝑃 {𝑋𝑡 ∈ 2𝑏 − 𝐼} − 𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝑋𝑡 ∈ 2𝑏 − 𝐼} (12)
De forma similar, si 𝐼 ⊂ [𝑏, ∞), se cumplirá
𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝑋𝑡 ∈ 𝐼} = 𝑃 {𝑋𝑡 ∈ 2𝑎 − 𝐼} − 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 2𝑎 − 𝐼} (13)
Por consiguiente, en el caso en que 𝐼 ⊂ [𝑎, 𝑏], tendremos
𝑃 {𝑎 < 𝑚𝑡 < 𝑀𝑡 < 𝑏, 𝑋𝑡 ∈ 𝐼} =
= 𝑃 {𝑋𝑡 ∈ 𝐼} − 𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝜏𝑎 ≤ 𝑡, 𝑋𝑡 ∈ 𝐼} − 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝜏𝑏 ≤ 𝑡, 𝑋𝑡 ∈ 𝐼}
Ahora bien, aplicando el principio de reflexión en 𝑎, la primera probabilidad a restar
vale
𝑝1 = 𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝜏𝑎 ≤ 𝑡, 𝑋𝑡 ∈ 𝐼} = 𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝑋𝑡 ∈ 2𝑎 − 𝐼}
y la aplicación alternada de (13) y (12) proporciona:
𝑝1 = 𝑃 {𝑋𝑡 ∈ 2𝑎 − 𝐼} − 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 2𝑎 − 𝐼}
= 𝑃 {𝑋𝑡 ∈ 2𝑎 − 𝐼} − 𝑃 {𝑋𝑡 ∈ 2𝑏 − 2𝑎 + 𝐼} + 𝑃 {𝜏𝑎 < 𝜏𝑏 , 𝑋𝑡 ∈ 2𝑏 − 2𝑎 + 𝐼}
= 𝑃 {𝑋𝑡 ∈ 2𝑎 − 𝐼} − 𝑃 {𝑋𝑡 ∈ 2𝑏 − 2𝑎 + 𝐼} + 𝑃 {𝑋𝑡 ∈ 4𝑎 − 2𝑏 − 𝐼}
−𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 4𝑎 − 2𝑏 − 𝐼}
= 𝑃 {𝑋𝑡 ∈ 2𝑎 − 𝐼} − 𝑃 {𝑋𝑡 ∈ 2𝑏 − 2𝑎 + 𝐼} + 𝑃 {𝑋𝑡 ∈ 4𝑎 − 2𝑏 − 𝐼}
−𝑃 {𝑋𝑡 ∈ 4𝑏 − 4𝑎 + 𝐼} + 𝑃 {𝑋𝑡 ∈ 6𝑎 − 4𝑏 − 𝐼} + ⋅ ⋅ ⋅
es decir

∫ {∑ ∞ }
1 −(𝑥−2(𝑛+1)𝑎+2𝑛𝑏)2 /2𝑡

−(𝑥+2𝑛𝑏−2𝑛𝑎)2 /2𝑡
𝑝1 = √ 𝑒 − 𝑒 𝑑𝑥
2𝜋𝑡 𝐼 𝑛=0 𝑛=1

26
De la misma manera
𝑝2 = 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝜏𝑏 ≤ 𝑡, 𝑋𝑡 ∈ 𝐼}
= 𝑃 {𝜏𝑏 < 𝜏𝑎 , 𝑋𝑡 ∈ 2𝑏 − 𝐼}
∫ {∑ ∞ ∞
}
1 2
∑ 2
= √ 𝑒−(𝑥−2(𝑛+1)𝑏+2𝑛𝑎) /2𝑡 − 𝑒−(𝑥+2𝑛𝑎−2𝑛𝑏) /2𝑡 𝑑𝑥
2𝜋𝑡 𝐼 𝑛=0 𝑛=1

Y, en definitiva
𝑃 {𝑎 < 𝑚𝑡 < 𝑀𝑡 < 𝑏, 𝑋𝑡 ∈ 𝐼} =
∞ {
1
∫ ∑ }
2 2
= √ 𝑒−(𝑥−2𝑛𝑏+2𝑛𝑎) /2𝑡 − 𝑒−(𝑥−2(𝑛+1)𝑎+2𝑛𝑏) /2𝑡 𝑑𝑥 (14)
2𝜋𝑡 𝐼 𝑛=−∞

que proporciona la distribución conjunta de (𝑚𝑡 , 𝑀𝑡 , 𝑋𝑡 ). Reemplazando 𝐼 por [𝑎, 𝑏] se


obtiene la marginal de (𝑚𝑡 , 𝑀𝑡 ).
El principio de reflexión hace honor a su nombre: en la última fórmula aparece un
término por cada una de las imágenes que el punto 𝑥 tiene al situarse entre dos espejos
paralelos en 𝑎 y 𝑏 respectivamente.

6. La salida de un intervalo
Fijado un intervalo (𝑎, 𝑏) con 𝑎 < 0 < 𝑏, consideremos el primer instante en que el
movimiento browniano sale de dicho intervalo; esto es
𝜏 = 𝜏𝑎𝑏 = ı́nf{𝑡 ≥ 0 ∣ 𝑋𝑡 = 𝑎 ó 𝑋𝑡 = 𝑏}
Puesto que
{𝜏𝑎𝑏 ≤ 𝑡} = {𝑚𝑡 ≤ 𝑎} ∪ {𝑀𝑡 ≥ 𝑏}
la distribución de 𝜏𝑎𝑏 queda determinada por la distribución conjunta de 𝑚𝑡 y 𝑀𝑡 . Sin
embargo, la complejidad de tal distribución conjunta obliga a emplear otros métodos
para determinar ciertas caracterı́sticas asociadas a 𝜏𝑎𝑏 . Por ejemplo, es interesante saber
cual es el tiempo medio de espera, 𝐸[𝜏𝑎𝑏 ], necesario para salir del intervalo (𝑎, 𝑏) y,
también, con qué probabilidad el proceso abandonará el intervalo (𝑎, 𝑏) por cada uno
de sus extremos.
Para ello serán necesarias algunas consideraciones previas. En primer lugar, para cada
𝑡 > 0 designaremos por
ℱ𝑡 = 𝜎(𝑋𝑢 , 𝑢 ≤ 𝑡)
la 𝜎-álgebra del espacio Ω engendrada por todas las variables 𝑋𝑢 anteriores al instante 𝑡.
Se trata pues de la 𝜎-álgebra que contiene todos los sucesos que quedan determinados
por la historia del proceso hasta el instante 𝑡 (incluido).

27
Un proceso {𝑌𝑡 } se denomina una martingala respecto a {ℱ𝑡 } si para cada 𝑡, 𝑌𝑡 es
ℱ𝑡 -medible e integrable y, siempre que sea 𝑠 < 𝑡, se cumple

𝐸[𝑌𝑡 ∣ ℱ𝑠 ] = 𝑌𝑠

Es decir si la posición esperada en el instante 𝑡, supuesto que se conoce la evolución


hasta el instante 𝑠, coincide con la posición en el instante 𝑠.
Por ejemplo, el propio movimiento browniano 𝑋𝑡 es una martingala; puesto que:

𝐸[𝑋𝑡 ∣ ℱ𝑠 ] = 𝐸[𝑋𝑠 + (𝑋𝑡 − 𝑋𝑠 ) ∣ ℱ𝑠 ] = 𝑋𝑠 + 𝐸[𝑋𝑡 − 𝑋𝑠 ∣ ℱ𝑠 ] = 𝑋𝑠

habida cuenta de que 𝑋𝑠 es conocido cuando se condiciona por ℱ𝑠 , mientras que el


incremento 𝑋𝑡 − 𝑋𝑠 es independiente de ℱ𝑠 y tiene media cero.
También es una martingala el proceso 𝑋𝑡2 − 𝑡. En efecto,

𝐸[𝑋𝑡2 − 𝑡 ∣ ℱ𝑠 ] = 𝐸[(𝑋𝑠 + 𝑋𝑡 − 𝑋𝑠 )2 ∣ ℱ𝑠 ] − 𝑡
= 𝐸[𝑋𝑠2 + (𝑋𝑡 − 𝑋𝑠 )2 + 2𝑋𝑠 (𝑋𝑡 − 𝑋𝑠 ) ∣ ℱ𝑠 ] − 𝑡
= 𝑋𝑠2 + 𝐸[(𝑋𝑡 − 𝑋𝑠 )2 ∣ ℱ𝑠 ] + 2𝑋𝑠 𝐸[𝑋𝑡 − 𝑋𝑠 ∣ ℱ𝑠 ] − 𝑡
= 𝑋𝑠2 + 𝑡 − 𝑠 − 𝑡 = 𝑋𝑠2 − 𝑠

puesto que 𝑋𝑡 − 𝑋𝑠 es independiente de ℱ𝑠 , de media cero, y varianza 𝑡 − 𝑠.


La utilidad de las martingalas en el contexto del movimiento browniano radica en el
teorema de parada opcional, una de cuyas versiones asegura:

Si 𝑌𝑡 es una martingala, se verifica

𝐸[𝑌𝜏 ] = 𝐸[𝑌0 ]

siempre que 𝜏 sea un instante aleatorio, finito con probabilidad uno, tal que

{𝜏 ≤ 𝑡} ∈ ℱ𝑡 ∀𝑡 ≥ 0 y 𝐸[sup 𝑌mı́n(𝜏,𝑡) ] < ∞
𝑡≥0

(y, en particular, cuando 𝜏 sea acotado).

Por supuesto, el instante 𝜏 = 𝜏𝑎𝑏 de salida del intervalo (𝑎, 𝑏) verifica {𝜏 ≤ 𝑡} ∈ ℱ𝑡 .


Además, como 𝑋mı́n(𝜏,𝑡) < máx(∣𝑎∣, 𝑏), la última condición del enunciado anterior es
inmediata. Por otra parte
2
𝐸[𝑋mı́n(𝜏,𝑡) − mı́n(𝜏, 𝑡)] = 0

con lo cual
2
𝐸[mı́n(𝜏, 𝑡)] = 𝐸[𝑋mı́n(𝜏,𝑡) ] ≤ máx(𝑎2 , 𝑏2 )

28
y
𝐸[𝜏 ] = lı́m 𝐸[mı́n(𝜏, 𝑡)] ≤ máx(𝑎2 , 𝑏2 )
𝑡→∞
de manera que 𝜏 no sólo es finito, sino que tiene media finita.
En consecuencia

0 = 𝐸[𝑋𝜏 ] = 𝑎𝑃 {𝑋𝜏 = 𝑎} + 𝑏𝑃 {𝑋𝜏 = 𝑏}


= 𝑎𝑃 {𝑋𝜏 = 𝑎} + 𝑏 (1 − 𝑃 {𝑋𝜏 = 𝑎})

de donde
𝑏 −𝑎
𝑃 {𝑋𝜏 = 𝑎} = y 𝑃 {𝑋𝜏 = 𝑏} = (15)
𝑏−𝑎 𝑏−𝑎
Análogamente, con la martingala 𝑋𝑡2 − 𝑡, se obtiene 𝐸[𝑋𝜏2 − 𝜏 ] = 0, de donde

𝐸[𝜏 ] = 𝐸[𝑋𝜏2 ] = 𝑎2 𝑃 {𝑋𝜏 = 𝑎} + 𝑏2 𝑃 {𝑋𝜏 = 𝑏}


𝑏 −𝑎
= 𝑎2 + 𝑏2 = −𝑎𝑏
𝑏−𝑎 𝑏−𝑎
Las conclusiones anteriores pueden enunciarse en forma algo más general.

Proposición 11 Supongamos que 𝑋𝑡 = 𝑥 y, dados 𝑎 < 𝑥 < 𝑏, consideremos

𝜏𝑎𝑏 = ı́nf{𝑠 ≥ 𝑡 ∣ 𝑋𝑠 = 𝑎 ó 𝑋𝑠 = 𝑏}

entonces
𝑏−𝑥 𝑥−𝑎
𝑃 {𝑋𝜏 = 𝑎} = , 𝑃 {𝑋𝜏 = 𝑏} = y 𝐸[𝜏 ] = (𝑏 − 𝑥)(𝑥 − 𝑎)
𝑏−𝑎 𝑏−𝑎
2
Para cualquier valor de 𝜆 ∈ 𝐼𝑅, también es una martingala el proceso 𝑒−𝜆𝑋𝑡 −𝜆 𝑡/2 . De
2 2
hecho, recordando que 𝐸[𝑒𝑢𝑋 ] = 𝑒𝜎 𝑢 /2 para cualquier variable 𝑁 (0, 𝜎), resulta
2 𝑡/2 2 𝑡/2 2 𝑡/2 2 /2 2 𝑠/2
𝐸[𝑒𝜆𝑋𝑡 −𝜆 ∣ ℱ𝑠 ] = 𝑒𝜆𝑋𝑠 −𝜆 𝐸[𝑒𝜆(𝑋𝑡 −𝑋𝑠 ) ∣ ℱ𝑠 ] = 𝑒𝜆𝑋𝑠 −𝜆 𝑒(𝑡−𝑠)𝜆 = 𝑒𝜆𝑋𝑠 −𝜆

ya que 𝑋𝑡 − 𝑋𝑠 es independiente de ℱ𝑠 .
Esto es útil en el estudio del proceso de Wiener 𝑌𝑡 , de tendencia 𝜇 y parámetro de
varianza 𝜎, dado por 𝑌𝑡 = 𝜎𝑋𝑡 + 𝜇𝑡 en términos del movimiento browniano normaliza-
do 𝑋𝑡 . De hecho,
2 2 2 2
𝑒𝜆𝑌𝑡 −(𝜆𝜇+𝜎 𝜆 /2)𝑡 = 𝑒𝜆𝜎𝑋𝑡 −𝜆 𝜎 𝑡/2
★𝑌
es una martingala. Y, si se elige 𝜆★ = −2𝜇/𝜎 2 , resulta que 𝑒𝜆 𝑡
también es una mar-
tingala. Aplicando el teorema de parada opcional al instante

𝜏𝑎𝑏 = ı́nf{𝑡 ≥ 0 ∣ 𝑌𝑡 = 𝑎 ó 𝑌𝑡 = 𝑏}

29
se obtiene
★𝜏 ★ ★
1 = 𝐸[𝑒𝜆 𝑎𝑏
] = 𝑒𝜆 𝑎 𝑃 {𝑌𝜏𝑎𝑏 = 𝑎} + 𝑒𝜆 𝑏 𝑃 {𝑌𝜏𝑎𝑏 = 𝑏}
de donde
2 2
𝑒−2𝜇𝑏/𝜎 − 1 1 − 𝑒−2𝜇𝑎/𝜎
𝑃 {𝑌𝜏𝑎𝑏 = 𝑎} = y 𝑃 {𝑌𝜏𝑎𝑏 = 𝑏} = .
𝑒−2𝜇𝑏/𝜎2 − 𝑒−2𝜇𝑎/𝜎2 𝑒−2𝜇𝑏/𝜎2 − 𝑒−2𝜇𝑎/𝜎2
2
Supuesto que 𝜇 < 0, si 𝑎 → −∞, resulta que 𝑒2𝜇𝑏/𝜎 es la probabilidad de alcanzar el
nivel 𝑏; es decir que máx𝑡≥0 𝑌𝑡 tiene distribución exponencial de parámetro 2∣𝜇∣/𝜎 2 .

7. La ley del logaritmo iterado


Tratamos ahora de estudiar la rapidez de oscilación de las trayectorias del movimien-
to browniano, primero en un entorno del origen, para deducir después un resultado
asintótico.

Proposición 12 Con probabilidad 1, se verifica


𝑋𝑡
lı́m sup √ = 1.
𝑡↓0 2𝑡 log log(1/𝑡)

Sea 𝛾(𝑡) = 2𝑡 log log(1/𝑡) que es una función definida y positiva en el intervalo (0, 𝑒−1 ), que
crece par valores pequeños de 𝑡 (en (0, 0,17) aproximadamente). Probaremos primero que, fijado
cualquier 𝛿 > 0, a medida que 𝑡 se acerca a 0, llega un momento en que 𝑋𝑡 /𝛾(𝑡) < 1+𝛿. Y, más
adelante veremos que nunca deja de producirse 𝑋𝑡 /𝛾(𝑡) > 1−𝛿, por mucho que 𝑡 se acerque a 0.

Lema 1 Para cualquier 𝛿 > 0 es


{ }
𝑃 lı́m sup[𝑋𝑡 − (1 + 𝛿)𝛾(𝑡)] < 0 = 1.
𝑡↓0

En efecto, elı́jase 𝑢 ∈ ((1 + 𝛿)−2 , 1) y sea

𝐶𝑛 = ∃𝑡 ∈ [𝑢𝑛+1 , 𝑢𝑛 ] con 𝑋𝑡 ≥ (1 + 𝛿)𝛾(𝑡) 𝐶𝑛 ⊂ 𝑀𝑢𝑛 ≥ (1 + 𝛿)𝛾(𝑢𝑛+1 )


{ } { }
que cumple

a partir de un cierto 𝑛, puesto que 𝛾(𝑡) es creciente en un intervalo (0, 𝜖) en el que estarán los
𝑢𝑛 cuando 𝑛 sea grande. Ahora bien
2 2
𝑃 𝑀𝑢𝑛 ≥ 𝑥𝑛 𝑢𝑛/2 = 2 𝑃 𝑋𝑢𝑛 ≥ 𝑥𝑛 𝑢𝑛/2 ≤ √ 𝑒−𝑥𝑛 /2
{ } { }
2𝜋 𝑥𝑛
y, si se toma
1+𝛿 √ √
𝑥𝑛 = 𝑛/2
𝛾(𝑢𝑛+1 ) = (1 + 𝛿) 2𝑢 log[(𝑛 + 1) log(1/𝑢)] = 2 log[𝑐(𝑛 + 1)𝛼 ]
𝑢

30
siendo 𝛼 = 𝑢(1 + 𝛿)2 y 𝑐 = [log(1/𝑢)]𝛼 , se obtiene
𝛼 √
{ 𝑛+1
} 2 𝑒− log[𝑐(𝑛+1) ] 2/( 2𝜋𝑐)
𝑃 𝑀𝑢𝑛 ≥ (1 + 𝛿)𝛾(𝑢 ) ≤√ √ = √ .
2𝜋 2 log[𝑐(𝑛 + 1)𝛼 ] (𝑛 + 1)𝛼 2 log[𝑐(𝑛 + 1)𝛼 ]
Como 𝛼 > 1, la serie de término general la última expresión es convergente y el lema de Borel-
Cantelli asegura que 𝑃 {lı́m sup 𝐶𝑛 } = 0. Es decir que, con probabilidad 1, a partir de un cierto
𝑛 no existe ningún 𝑡 ∈ [𝑢𝑛+1 , 𝑢𝑛 ] que verifique 𝑋𝑡 /𝛾(𝑡) ≥ (1 + 𝛿).

Lema 2 Para cualquier 𝛿 > 0 es


{ }
𝑃 lı́m sup[𝑋𝑡 − (1 − 𝛿)𝛾(𝑡)] > 0 = 1.
𝑡↓0

En efecto, elı́jase ahora 𝑢 ∈ (0, 1) y considérese la sucesión de variables independientes

𝑍𝑛 = 𝑋𝑢𝑛 − 𝑋𝑢𝑛+1 .

Utilizando que ( )
{ √
𝑛 𝑛+1
} 1 −𝑥2𝑛 /2 1 1
𝑃 𝑍𝑛 > 𝑥𝑛 𝑢 − 𝑢 ≥ √ 𝑒 − 3 ,
2𝜋 𝑥𝑛 𝑥𝑛
la elección
1−𝜀 1−𝜀 √ √
𝑥𝑛 = √ 𝛾(𝑢𝑛 ) = √ 2 log[𝑛 log(1/𝑢)] = 𝛽 log(𝐶𝑛)
𝑛
𝑢 −𝑢 𝑛+1 1−𝑢
siendo 𝛽 = 2(1 − 𝜀)2 /(1 − 𝑢) y 𝐶 = log(1/𝑢), proporciona
( )
1 1 1
𝑃 𝑍𝑛 > (1 − 𝜀)𝛾(𝑢𝑛 ) ≥ √
{ }
√ −√ 3 .
2𝜋𝐶 𝛽/2 𝑛𝛽/2 𝛽 log(𝐶𝑛) 𝛽 log(𝐶𝑛)
Luego, si 𝑢 es suficientemente pequeño para que sea 𝛽 < 2, la serie de término general igual
a la última expresión es divergente y el segundo lema de Borel-Cantelli garantiza que, con
probabilidad 1, será

𝑋𝑢𝑛 − 𝑋𝑢𝑛+1 > (1 − 𝜀)𝛾(𝑢𝑛 ) para infinitos valores de 𝑛.

Pero, según el Lema 1 y teniendo en cuenta la simetrı́a, con probabilidad 1, es

𝑋𝑢𝑛+1 > −(1 + 𝜀)𝛾(𝑢𝑛+1 ) a partir de un 𝑛 en adelante.

Consecuentemente, con probabilidad 1, para infinitos valores de 𝑛 se cumple


𝛾(𝑢𝑛+1 )
[ ]
𝑋𝑢𝑛 > (1 − 𝜀)𝛾(𝑢𝑛 ) − (1 + 𝜀)𝛾(𝑢𝑛+1 ) o bien 𝑋𝑢𝑛 > 𝛾(𝑢𝑛 ) (1 − 𝜀) − (1 + 𝜀) .
𝛾(𝑢𝑛 )

Ahora bien, si 𝑢 es pequeño, 𝛾(𝑢𝑛+1 )/𝛾(𝑢𝑛 ) < 2 𝑢 para cualquier 𝑛; ası́ que se puede elegir 𝜀
suficientemente pequeño para que sea 1 − 𝜀 + (1 + 𝜀)𝛾(𝑢𝑛+1 )/𝛾(𝑢𝑛 ) > 1 − 𝛿 y resulta

𝑋𝑢𝑛 > 𝛾(𝑢𝑛 )(1 − 𝛿) para infinitos valores de 𝑛.

31
En definitiva
𝑋𝑡 𝑋𝑡
lı́m sup =1 y, por simetrı́a, lı́m inf = −1.
𝑡↓0 𝛾(𝑡) 𝑡↓0 𝛾(𝑡)

Al acercarse 𝑡 a 0, las oscilaciones de 𝑋𝑡 se producen entre 𝛾(𝑡) y −𝛾(𝑡).


Respecto al comportamiento cuando 𝑡 → ∞, basta aplicar los resultados anteriores al
movimiento browniano 𝑋 ′ 𝑡 = 𝑡𝑋1/𝑡 para concluir que

𝑋𝑡′ 𝑋1/𝑡 𝑋𝑠
1 = lı́m sup √ = lı́m sup √ = lı́m sup √
𝑡↓0 2𝑡 log log(1/𝑡) 𝑡↓0 2/𝑡 log log(1/𝑡) 𝑠↑∞ 2𝑠 log log 𝑠

y, de forma análoga,
𝑋𝑠
lı́m inf √ = −1.
𝑠↑∞ 2𝑠 log log 𝑠
Por tanto, las oscilaciones
√ de 𝑋𝑡 a largo plazo
√ conducen reiteradamente la trayectoria
a las proximidades de 2𝑡 log log 𝑡 y de − 2𝑡 log log 𝑡.

Referencias
Freedman, D.: Brownian Motion and diffusion. Springer-Verlag. 1983.

Ito, K. – McKean, H.P.: Diffusion processes and their sample paths. Spinger-
Verlag. 1974.

Karlin,S. – Taylor, H.M.: A first course in stochastic processes. Academic Press.


1975.

Lévy, P.: Processus stochastiques et mouvement brownien. Gauthier-Villars. 1948.

Resnik, S.I.: Adventures in stochastic processes. Birkhäuser. 1992.

Revuz, D. – Yor, M.: Continuous martingales and brownian motion. Springer-


Verlag. 1991.

Williams, D.: Diffusions, Markov processes and martingales. John Wiley. 1979.

32

Das könnte Ihnen auch gefallen