Sie sind auf Seite 1von 18

22

ESPERANZA
Aprovechando que hemos definido antes la integral de Riemann-Stieltjes, definiremos ahora la
esperanza de una variable aleatoria cualquiera en términos de esta integral.

DEFINICIÓN: Sea 𝒙 una v.a. con función de distribución 𝒇(𝒙).

La esperanza de 𝒙 es:


𝑬(𝒙) = ∫ 𝒙𝒅𝒇(𝒙)
−∞


Suponiendo que ∫−∞(𝒙)𝒅𝒇(𝒙) < ∞.

Si 𝒙 es una variable aleatoria con función de distribución 𝒇(𝒙) , entonces se define la esperanza
de 𝒙 como la integral de Riemann-Stieltjes de la función 𝒙 respecto de la función de distribución.
Suponiendo que esta integral es absolutamente convergente, en el caso cuando 𝒙 es discreta, su
función de distribución es constante por pedazos y existe a lo sumo una cantidad numerable de
saltos. La integral de Riemann-Stieltjes es relevante únicamente en los puntos donde se presentan
estos saltos y el cálculo de la esperanza se reduce a la siguiente suma:

CASOS PARTICULARES:

a) Si 𝒙 es discreta,

𝑬(𝒙) = ∑ 𝒙 𝑷(𝒙 = 𝒙)
𝒙

Cuando 𝒙 es absolutamente continua su función de distribución es diferenciable y la integral


de Riemann-Stieltjes se reduce a la siguiente integral de Riemann:

b) Si 𝒙 es absolutamente continua,

𝑬(𝒙) = ∫ 𝒙𝒇(𝒙)𝒅𝒙
−∞

Cuando 𝒙 es mixta, el cálculo de la esperanza se separa en dos partes: uno correspondiente a


una suma y el otro a integrales, mostraremos este procedimiento mediante un ejemplo en
particular:
c) Si 𝒙 es mixta, por ejemplo, con f. de distribución

0 Si 𝑥 ≤ 0,
1 𝑥2
∗ Si 0 ≤ 𝑥 < 𝑎,
5 𝑎2
2
F(x) Si 𝑎 ≤ 𝑥 < 𝑏,
5
3 Si 𝑏 ≤ 𝑥 < 𝑐,
5
1𝑥 − 𝑏
+ Si 𝑥 ≥ 𝑐
5𝑐 −𝑏
En donde 𝟎 < 𝒂 < 𝒃 < 𝒄
1
Supongamos que 𝒙 es una variable aleatoria con esta función de distribución en donde a, b y c
son tres constantes positivas tales que 𝒂 < 𝒃 y 𝒃 < 𝒄. Vemos una gráfica de esta función:

F(x)

Entonces, la esperanza de 𝒙, se calcula de la siguiente forma:

Primero nos fijamos en los puntos en donde la función de distribución tiene saltos, entonces esto
𝟏
es igual a a por el tamaño del salto de la función de distribución en ese punto, esto es 𝟓 , más b
1
por el tamaño del salto (nuevamente 5), más c por el tamaño del salto, ahora nos fijamos en las

partes continuas. Entonces esto es más la integral de 0 a a que es el primer intervalo de 𝒙 por la
2
derivada de la función de distribución en ese intervalo, esto es de x entre 𝑎2 de 𝒙. En el intervalo
5

ab, la función de distribución es constante y por lo tanto su derivada es 0, ahora nos fijamos en el
intervalo bc, entonces hay que sumar la integral desde b hasta c de 𝒙 por la derivada de la función
𝟏
en ese intervalo que resulta ser de 1 entre c menos b de 𝒙 y así es como se calcula la esperanza
𝟓

de esta variable aleatoria mixta:

𝒂 𝒄
𝟏 𝟏 𝟏 𝟐 𝒙 𝟏 𝟏
𝑬(𝒙) = 𝒂 ( ) + 𝒃 ( ) + 𝒄 ( ) + ∫ 𝒙 ∗ 𝟐
𝒅𝒙 + ∫ 𝒙∗ 𝒅𝒙
𝟓 𝟓 𝟓 𝟎 𝟓𝒂 𝟎𝒃 𝟓𝒄 −𝒃

Vamos a recordar ahora algunas propiedades generales de la esperanza.

1. 𝑬(𝒄) = 𝒄, c constante.

Primero recordemos que la esperanza de la variable aleatoria constante c es la constante misma.

2. 𝑬(𝒄𝒙) = 𝒄 𝑬(𝒙).

Segundo, la esperanza de 𝒄 ∗ 𝒙 es c veces la esperanza de 𝒙.

3. Si 𝒙 ≥ 𝟎 entonces 𝑬(𝒄) ≥ 𝟎.

Tercero, sí 𝒙 es no negativa, entonces su esperanza también es no negativa.

4. Si 𝒙 ≤ 𝒚 entonces 𝑬(𝒙) ≤ 𝑬(𝒚).

Cuarto, la esperanza es un operador monótono no decreciente, esto es si 𝒙 es menor o igual a 𝒚


entonces la esperanza de 𝒙 es menor o igual a 𝒚.

5. 𝑬(𝒙 + 𝒚) = 𝑬(𝒙) + 𝑬(𝒚).

Quinto, la esperanza separa sumas, esto es la esperanza de 𝒙 más 𝒚 es igual a la esperanza de 𝒙


más la esperanza de 𝒚.

 Las propiedades 2 y 5 establecen que la esperanza es lineal. Terminaremos esta sección


demostrando el siguiente resultado interesante:

PROPOSICIÓN:

Sea x una variable aleatoria con función de distribución 𝒇𝒙(𝑥) y sea 𝑔: ℝ → ℝ (una función Borel
medible) tal que la composición de g(𝒙) es absolutamente integrable 𝑬[|𝒈(𝒙)|] < ∞. Entonces
la esperanza de la variable aleatoria g(𝒙) se calcula como la integral de Riemann-Stieltjes de g(𝒙)

respecto de la función de distribución de la variable 𝒙: 𝑬[𝒈(𝒙)] = ∫−∞ 𝒈(𝒙)𝒅𝒇𝒙(𝒙).
DEMOSTRACIÓN:

Vamos a hacer la demostración de este resultado y primero vamos a suponer el siguiente caso:
Supongamos entonces que la variable aleatoria g(𝒙) es no negativa y además vamos a suponer
que es continua. Entonces la esperanza de g(𝒙) se puede calcular en este caso como esta integral
de Riemann, la integral de 0 infinito de la probabilidad de que g(𝒙) sea mayor o igual a 𝒚 de 𝒚:


𝑬[𝒈(𝒙)] = ∫𝟎 𝑷(𝒈(𝒙) ≥ 𝒚)𝒅𝒚.

Esto es otra forma de escribir lo mismo, la integral de 0 infinito de la probabilidad de que 𝒙 tome
un valor en el conjunto g a la menos 1, la imagen inversa del intervalo 𝒚 infinito:


𝑬[𝒈(𝒙)] = ∫ 𝑷(𝑿 ∈ 𝒈−𝟏 [𝒚, ∞))𝒅𝒚
𝟎

El integrando se puede escribir de la siguiente manera, tenemos entonces la integral de 0 infinito


y esta probabilidad la escribiremos mediante esta integral, la integral sobre esta región g a la
menos 1 de 𝒚 infinito de la función de distribución de 𝒙, de 𝒚.


𝑬[𝒈(𝒙)] = ∫ ∫ 𝒅𝑭𝒙(𝒙) 𝒅𝒚
𝟎 𝒈−𝟏 [𝒚,∞)

Haciendo el cambio en el orden de las integrales, esto se puede escribir como la integral sobre la
región g a la menos 1 de 0 infinito de la integral desde 0 hasta g minúscula de 𝒚 de f(𝒙)en 𝒙.

𝒈(𝒙)
𝑬[𝒈(𝒙)] = ∫ ∫ 𝒅𝒚 𝒅𝑭𝒙(𝒙)
𝒈−𝟏 [𝟎,∞) 𝟎

Ahora como por hipótesis g es no negativa, g a la menos 1 del intervalo 0 infinito es la totalidad
de los números reales, esto es la integral sobre todo ℝ de la segunda integral que se reduce a g de
𝒙 de f(𝒙) en 𝒙.

𝑬[𝒈(𝒙)] = ∫ 𝒈(𝒙)𝒅𝑭𝒙(𝒙)

Se puede obtener el mismo resultado cuando g(𝒙) ≥ es discreta o mixta y manteniendo la


hipótesis de no negatividad. Vamos a hacer ahora el caso general. Ahora toda función de 𝒙 admite
esta descomposición, se puede escribir como g más de 𝒙 menos menos g menos de 𝒙, en donde g
más de 𝒙. es la parte positiva de la función, esto es vale g(𝒙) si es que g(𝒙) es mayor o igual a
0 y la función g más se anula si g(𝒙) es negativa. De manera similar g menos de x se anula
cuando g(𝒙) es mayor que 0 y vale la misma función g(𝒙) si g(𝒙) es menor o igual a 0.
Observemos que tanto g más como menos g menos son funciones no negativas, por lo tanto, g(𝒙)
es la diferencia de estas dos funciones no negativas.

Para cualquier 𝒈(𝒙),


𝒈(𝒙) = 𝒈(𝒙) − (−𝒈− (𝒙))
En donde:

𝒈(𝒙) Si 𝒈(𝒙) ≥ 𝟎,
𝒈+ (𝒙)
0 Si 𝒈(𝒙) < 𝟎.

0 Si 𝒈(𝒙) > 𝟎,
𝒈− (𝒙)
𝒈(𝒙) Si 𝒈(𝒙) ≤ 𝟎.

Observación:

 𝒈+ (𝒙) ≥ 𝟎

 −𝒈− (𝒙) ≥ 𝟎
Entonces tenemos los siguientes cálculos, tenemos que la esperanza de la variable aleatoria g(𝒙)
se puede escribir como la esperanza de la variable g más de 𝒙 menos la esperanza de menos g
menos de 𝒙.

𝑬[𝒈(𝒙)] = 𝑬[𝒈+ (𝒙)] − 𝑬[−𝒈− (𝒙)]

Y entonces por lo visto antes, esto se puede escribir como la integral desde menos infinito hasta
infinito de g más de 𝒙 minúscula de f(𝒙) en x menos la integral desde menos infinito hasta infinito
de menos g menos de x minúscula de f(𝒙) en 𝒙.

∞ ∞
𝑬[𝒈(𝒙)] = ∫ 𝒈+ (𝒙)𝒅𝑭𝒙(𝒙) − ∫ −𝒈− (𝒙)𝒅𝑭𝒙(𝒙)
−∞ −∞

Esto es la integral sobre todo ℝ de g más de 𝒙 más g menos de 𝒙 de f(𝒙) en 𝒙.


𝑬[𝒈(𝒙)] = ∫ (𝒈+ (𝒙) + 𝒈− (𝒙))𝒅𝑭𝒙(𝒙)
−∞

Y esto es simplemente la integral sobre todo ℝ de g(𝒙) de f(𝒙) en 𝒙 y esto concluye la


demostración.


𝑬[𝒈(𝒙)] = ∫ 𝒈(𝒙) 𝒅𝑭𝒙(𝒙)
−∞
Finalmente vamos a mencionar dos casos particulares de esta fórmula.

CASOS PARTICULARES:
a. Si g(𝒙) = 𝒙𝒏 entonces
𝑬[𝒈(𝒙)] = 𝑬(𝒙𝒏 )


= ∫−∞ 𝒙𝒏 𝒅𝑭𝒙(𝒙)

= "𝒏 − é𝒔𝒊𝒎𝒐 𝒎𝒐𝒎𝒆𝒏𝒕𝒐 𝒅𝒆 𝒙"

Primero, si g(𝒙) es 𝒙𝒏 entonces la esperanza de g(𝒙) es la esperanza 𝒙𝒏 y es lo que conocemos


como el n-ésimo momento de 𝒙.

b. Si g(𝒙) = (𝒙 − 𝑬(𝒙))𝟐 entonces


𝑬[𝒈(𝒙)] = 𝑬[(𝒙 − 𝑬(𝒙))𝟐 ]

= 𝑽𝒂𝒓(𝒙)

Como segundo ejemplo consideramos la función g(𝒙) igual a 𝒙 menos la esperanza de 𝒙 al


cuadrado, entonces la esperanza de g(𝒙) es la esperanza de esta función cuadrática que es lo que
conocemos como la varianza de la variable aleatoria 𝒙.
ANEXOS:
23
VECTORES
ALEATORIOS
¿Qué es un vector aleatorio?

Si una variable aleatoria es una función medible de omega en ℝ, entonces un vector aleatorio se
puede definir como una función medible de omega en ℝ𝑛 . En esta sección demostraremos la
equivalencia entre esta definición y aquella que dice que un vector aleatorio es simplemente un
vector de variables aleatorias.

Sea entonces omega, F, P un espacio de probabilidad, un vector aleatorio es una función x del
espacio muestral omega en ℝ𝑛 tal que para todo conjunto B, conjunto de Borel en ℝ𝑛 , la imagen
inversa de B es un elemento de la sigma algebra F.

Sea (Ω, ℱ, P) un espacio de probabilidad.

DEFINICIÓN: Un vector aleatorio es una función X: Ω→ℝ𝑛 tal que para todo B∈𝔅(ℝ𝑛 ),
𝑿−𝟏 𝑩 ∈ 𝓕.

Gráficamente tenemos la siguiente representación:

𝑿𝟏 , . . . . . . 𝑿𝒏

ℝ𝒏

De esta manera, un vector aleatorio x adquiere la siguiente representación:


𝑿 = 𝑿𝟏 , . . . . . . 𝑿𝒏
X es el vector 𝑿𝟏 , 𝑿𝟐hasta 𝑿𝒏 en donde cada entrada de este vector es una función de omega en
ℝ. Y como hemos mencionado esta función es tal que la imagen inversa de B cualquier boreliano
de ℝ𝑛 es un elemento de la sigma algebra F.

𝑿−𝟏 𝑩

ℝ𝒏
PROPOSICIÓN:
El siguiente resultado establece la equivalencia que habíamos mencionado. Una función de omega
en ℝ𝑛 en su representación 𝑋1 , . . . . . , 𝑋𝑛 es un vector aleatorio si y solo si cada coordenada es una
variable aleatoria. Vamos a demostrar este resultado.

DEMOSTRACIÓN:

Consideremos primero que 𝑋1 , . . . . . , 𝑋𝑛 es un vector aleatorio y consideremos que 𝐵1 es un


boreliano de ℝ.

𝑩𝟏 ∈ 𝕭(ℝ)

Ahora consideremos el boreliano B de ℝ𝑛 de esta manera.: B es el conjunto 𝐵1 multiplicado por


omega varias veces:

𝑩 = 𝑩𝟏 𝑿Ω𝑿. . . 𝑿Ω ∈ 𝕭(ℝ)

Entonces la imagen inversa de este conjunto se reduce a la imagen inversa de 𝐵1 bajo la función
𝑋1 y por hipótesis sabemos que esto es un elemento de F.

(𝑿𝟏 , . . . 𝑿𝒏 )−𝟏 𝑩𝟏 𝑿Ω𝑿. . . 𝑿Ω = 𝑿−𝟏


𝟏 𝑩𝟏 ∈ 𝓕

Esto demuestra que 𝑋1 es una variable aleatoria y de manera análoga tenemos que el resto de las
coordenadas del vector son variables aleatorias.

Consideremos ahora que 𝑋1 , . . . . . , 𝑋𝑛 son funciones de omega en ℝ y son variables aleatorias:

(𝑿𝟏 , . . . 𝑿𝒏 ): Ω → ℝ

Y consideremos la siguiente colección de borelianos: B es la colección de borelianos de ℝ𝑛 tales


que su imagen inversa bajo el vector es un elemento de la sigma álgebra F:

𝕭 = {𝑩 ∈ 𝕭(ℝ𝒏 ): (𝑿𝟏 , . . . 𝑿𝒏 )−𝟏 𝑩 ∈ 𝑭}

Esta colección B tiene las siguientes características:

a. 𝕭 es una ς -álgebra

Primero, no es muy difícil comprobar que 𝕭 es una sigma álgebra de subconjuntos de ℝ𝑛 .

b. 𝑩𝟏 𝒙. . . . 𝒙𝑩𝒏 ∈ 𝕭 con 𝑩𝒊 ∈ 𝕭(ℝ)

Además, los conjuntos de la forma 𝑩𝟏 cruz, 𝑩𝟐 cruz etc. hasta 𝑩𝒏 son elementos de esta
colección B en donde cada 𝑩𝒊 es un boreliano de ℝ.

Por lo tanto, tenemos las siguientes contenciones:


Tenemos que 𝔅 de ℝ multiplicado n veces está contenido en la colección 𝔅 y por definición 𝔅
está contenido en 𝔅 de ℝ𝑛 :

𝕭(ℝ)𝒙. . . . 𝒙𝕭(ℝ) ⊆ 𝕭 ⊆ 𝕭(ℝ𝒏 )

Si tomamos la mínima sigma álgebra en estas contenciones, obtenemos lo siguiente:

∴ 𝝇(𝕭(ℝ)𝒙. . . . 𝒙𝕭(ℝ)) ⊆ 𝕭 ⊆ 𝕭(ℝ𝒏 )

Tenemos que sigma de lado izquierdo está contenido en sigma de 𝔅 pero como 𝔅 es una sigma
álgebra, esto es simplemente 𝔅 y también tenemos que sigma de 𝔅(ℝ𝑛 ) es simplemente 𝔅(ℝ𝒏 )
pero el extremo izquierdo de estas contenciones es 𝔅(ℝ𝑛 ), esto demuestra que la colección 𝔅 es
𝔅(ℝ𝒏 ) y entonces efectivamente la imagen inversa de cualquier boreliano de ℝ𝑛 es un elemento
de la sigma álgebra F, esto concluye la demostración, por lo tanto es correcto definir un vector
aleatorio como un vector de variables aleatorias.

Las variables aleatorias del vector pueden ser independientes o más interesante aún, pueden estar
relacionadas unas con otras de alguna forma. En general, no podremos separarlas sin perder
ninguna información. Los vectores aleatorios surgen al observar o medir múltiples características
del resultado de un experimento aleatorio. Pensemos por ejemplo en escoger a una persona al azar
y aplicarle un cuestionario, el número de preguntas es la dimensión del vector de respuestas y en
general las preguntas o variables aleatorias tienen relación una con otra, en suma, podemos pensar
que las variables aleatorias son preguntas mientras que los vectores aleatorios son cuestionarios.

NOTA: Para hacer nuestra escritura más corta, cuando sea posible usaremos vectores de
dimensión dos y usaremos las letras: (X, Y) y las extensiones a dimensiones mayores serán
evidentes, a menos que se indique lo contrario.

Por ejemplo, aquí tenemos una definición en la que es suficiente referirse a un vector de dimensión
dos.

DEFINICIÓN: Vamos a decir que un vector aleatorio (X, Y) es discreto o continuo si cada
coordenada lo es. En la mayoría de los casos, solo consideraremos vectores discretos o continuos,
aunque existen sus combinaciones incluyendo variables aleatorias mixtas.

¿Qué nos interesa ahora? Lo mismo que antes, pero ahora en dimensiones mayores, nos interesa
estudiar las distribuciones de probabilidad de estos vectores aleatorios, es decir, distribuciones de
probabilidad en ℝ𝑛 . Habíamos mencionado antes que una variable aleatoria X, induce una medida
de probabilidad en ℝ, esa medida de probabilidad en ℝ se le llama la distribución de X y se le
expresa de manera equivalente mediante la función de distribución o la función de densidad si
existe. Un vector aleatorio, por ejemplo, de dimensión dos también induce una medida de
probabilidad ahora en ℝ2 dada de la siguiente manera:
Medida de probabilidad inducida: Para cualquier conjunto B elemento de los borelianos en ℝ2 ,
se define la probabilidad según el vector (X, Y) del conjunto B como la probabilidad de la imagen
inversa bajo el vector del conjunto B:

𝑩 ∈ 𝕭(ℝ𝟐 ), 𝑷(𝑿,𝒀) (𝑩) = 𝑷((𝑿, 𝒀)−𝟏 𝑩)

A esta medida de probabilidad se le llama la distribución del vector (X, Y). Nos interesa estudiar
estas medidas de probabilidad en ℝ𝑛 . En las siguientes secciones, estudiaremos conceptos
relativos a vectores aleatorios.
ANEXOS

Das könnte Ihnen auch gefallen