Beruflich Dokumente
Kultur Dokumente
ESPERANZA
Aprovechando que hemos definido antes la integral de Riemann-Stieltjes, definiremos ahora la
esperanza de una variable aleatoria cualquiera en términos de esta integral.
La esperanza de 𝒙 es:
∞
𝑬(𝒙) = ∫ 𝒙𝒅𝒇(𝒙)
−∞
∞
Suponiendo que ∫−∞(𝒙)𝒅𝒇(𝒙) < ∞.
Si 𝒙 es una variable aleatoria con función de distribución 𝒇(𝒙) , entonces se define la esperanza
de 𝒙 como la integral de Riemann-Stieltjes de la función 𝒙 respecto de la función de distribución.
Suponiendo que esta integral es absolutamente convergente, en el caso cuando 𝒙 es discreta, su
función de distribución es constante por pedazos y existe a lo sumo una cantidad numerable de
saltos. La integral de Riemann-Stieltjes es relevante únicamente en los puntos donde se presentan
estos saltos y el cálculo de la esperanza se reduce a la siguiente suma:
CASOS PARTICULARES:
a) Si 𝒙 es discreta,
𝑬(𝒙) = ∑ 𝒙 𝑷(𝒙 = 𝒙)
𝒙
b) Si 𝒙 es absolutamente continua,
∞
𝑬(𝒙) = ∫ 𝒙𝒇(𝒙)𝒅𝒙
−∞
0 Si 𝑥 ≤ 0,
1 𝑥2
∗ Si 0 ≤ 𝑥 < 𝑎,
5 𝑎2
2
F(x) Si 𝑎 ≤ 𝑥 < 𝑏,
5
3 Si 𝑏 ≤ 𝑥 < 𝑐,
5
1𝑥 − 𝑏
+ Si 𝑥 ≥ 𝑐
5𝑐 −𝑏
En donde 𝟎 < 𝒂 < 𝒃 < 𝒄
1
Supongamos que 𝒙 es una variable aleatoria con esta función de distribución en donde a, b y c
son tres constantes positivas tales que 𝒂 < 𝒃 y 𝒃 < 𝒄. Vemos una gráfica de esta función:
F(x)
Primero nos fijamos en los puntos en donde la función de distribución tiene saltos, entonces esto
𝟏
es igual a a por el tamaño del salto de la función de distribución en ese punto, esto es 𝟓 , más b
1
por el tamaño del salto (nuevamente 5), más c por el tamaño del salto, ahora nos fijamos en las
partes continuas. Entonces esto es más la integral de 0 a a que es el primer intervalo de 𝒙 por la
2
derivada de la función de distribución en ese intervalo, esto es de x entre 𝑎2 de 𝒙. En el intervalo
5
ab, la función de distribución es constante y por lo tanto su derivada es 0, ahora nos fijamos en el
intervalo bc, entonces hay que sumar la integral desde b hasta c de 𝒙 por la derivada de la función
𝟏
en ese intervalo que resulta ser de 1 entre c menos b de 𝒙 y así es como se calcula la esperanza
𝟓
𝒂 𝒄
𝟏 𝟏 𝟏 𝟐 𝒙 𝟏 𝟏
𝑬(𝒙) = 𝒂 ( ) + 𝒃 ( ) + 𝒄 ( ) + ∫ 𝒙 ∗ 𝟐
𝒅𝒙 + ∫ 𝒙∗ 𝒅𝒙
𝟓 𝟓 𝟓 𝟎 𝟓𝒂 𝟎𝒃 𝟓𝒄 −𝒃
1. 𝑬(𝒄) = 𝒄, c constante.
2. 𝑬(𝒄𝒙) = 𝒄 𝑬(𝒙).
3. Si 𝒙 ≥ 𝟎 entonces 𝑬(𝒄) ≥ 𝟎.
PROPOSICIÓN:
Sea x una variable aleatoria con función de distribución 𝒇𝒙(𝑥) y sea 𝑔: ℝ → ℝ (una función Borel
medible) tal que la composición de g(𝒙) es absolutamente integrable 𝑬[|𝒈(𝒙)|] < ∞. Entonces
la esperanza de la variable aleatoria g(𝒙) se calcula como la integral de Riemann-Stieltjes de g(𝒙)
∞
respecto de la función de distribución de la variable 𝒙: 𝑬[𝒈(𝒙)] = ∫−∞ 𝒈(𝒙)𝒅𝒇𝒙(𝒙).
DEMOSTRACIÓN:
Vamos a hacer la demostración de este resultado y primero vamos a suponer el siguiente caso:
Supongamos entonces que la variable aleatoria g(𝒙) es no negativa y además vamos a suponer
que es continua. Entonces la esperanza de g(𝒙) se puede calcular en este caso como esta integral
de Riemann, la integral de 0 infinito de la probabilidad de que g(𝒙) sea mayor o igual a 𝒚 de 𝒚:
∞
𝑬[𝒈(𝒙)] = ∫𝟎 𝑷(𝒈(𝒙) ≥ 𝒚)𝒅𝒚.
Esto es otra forma de escribir lo mismo, la integral de 0 infinito de la probabilidad de que 𝒙 tome
un valor en el conjunto g a la menos 1, la imagen inversa del intervalo 𝒚 infinito:
∞
𝑬[𝒈(𝒙)] = ∫ 𝑷(𝑿 ∈ 𝒈−𝟏 [𝒚, ∞))𝒅𝒚
𝟎
∞
𝑬[𝒈(𝒙)] = ∫ ∫ 𝒅𝑭𝒙(𝒙) 𝒅𝒚
𝟎 𝒈−𝟏 [𝒚,∞)
Haciendo el cambio en el orden de las integrales, esto se puede escribir como la integral sobre la
región g a la menos 1 de 0 infinito de la integral desde 0 hasta g minúscula de 𝒚 de f(𝒙)en 𝒙.
𝒈(𝒙)
𝑬[𝒈(𝒙)] = ∫ ∫ 𝒅𝒚 𝒅𝑭𝒙(𝒙)
𝒈−𝟏 [𝟎,∞) 𝟎
Ahora como por hipótesis g es no negativa, g a la menos 1 del intervalo 0 infinito es la totalidad
de los números reales, esto es la integral sobre todo ℝ de la segunda integral que se reduce a g de
𝒙 de f(𝒙) en 𝒙.
𝑬[𝒈(𝒙)] = ∫ 𝒈(𝒙)𝒅𝑭𝒙(𝒙)
ℝ
𝒈(𝒙) Si 𝒈(𝒙) ≥ 𝟎,
𝒈+ (𝒙)
0 Si 𝒈(𝒙) < 𝟎.
0 Si 𝒈(𝒙) > 𝟎,
𝒈− (𝒙)
𝒈(𝒙) Si 𝒈(𝒙) ≤ 𝟎.
Observación:
𝒈+ (𝒙) ≥ 𝟎
−𝒈− (𝒙) ≥ 𝟎
Entonces tenemos los siguientes cálculos, tenemos que la esperanza de la variable aleatoria g(𝒙)
se puede escribir como la esperanza de la variable g más de 𝒙 menos la esperanza de menos g
menos de 𝒙.
Y entonces por lo visto antes, esto se puede escribir como la integral desde menos infinito hasta
infinito de g más de 𝒙 minúscula de f(𝒙) en x menos la integral desde menos infinito hasta infinito
de menos g menos de x minúscula de f(𝒙) en 𝒙.
∞ ∞
𝑬[𝒈(𝒙)] = ∫ 𝒈+ (𝒙)𝒅𝑭𝒙(𝒙) − ∫ −𝒈− (𝒙)𝒅𝑭𝒙(𝒙)
−∞ −∞
∞
𝑬[𝒈(𝒙)] = ∫ (𝒈+ (𝒙) + 𝒈− (𝒙))𝒅𝑭𝒙(𝒙)
−∞
∞
𝑬[𝒈(𝒙)] = ∫ 𝒈(𝒙) 𝒅𝑭𝒙(𝒙)
−∞
Finalmente vamos a mencionar dos casos particulares de esta fórmula.
CASOS PARTICULARES:
a. Si g(𝒙) = 𝒙𝒏 entonces
𝑬[𝒈(𝒙)] = 𝑬(𝒙𝒏 )
∞
= ∫−∞ 𝒙𝒏 𝒅𝑭𝒙(𝒙)
= 𝑽𝒂𝒓(𝒙)
Si una variable aleatoria es una función medible de omega en ℝ, entonces un vector aleatorio se
puede definir como una función medible de omega en ℝ𝑛 . En esta sección demostraremos la
equivalencia entre esta definición y aquella que dice que un vector aleatorio es simplemente un
vector de variables aleatorias.
Sea entonces omega, F, P un espacio de probabilidad, un vector aleatorio es una función x del
espacio muestral omega en ℝ𝑛 tal que para todo conjunto B, conjunto de Borel en ℝ𝑛 , la imagen
inversa de B es un elemento de la sigma algebra F.
DEFINICIÓN: Un vector aleatorio es una función X: Ω→ℝ𝑛 tal que para todo B∈𝔅(ℝ𝑛 ),
𝑿−𝟏 𝑩 ∈ 𝓕.
𝑿𝟏 , . . . . . . 𝑿𝒏
ℝ𝒏
𝑿−𝟏 𝑩
ℝ𝒏
PROPOSICIÓN:
El siguiente resultado establece la equivalencia que habíamos mencionado. Una función de omega
en ℝ𝑛 en su representación 𝑋1 , . . . . . , 𝑋𝑛 es un vector aleatorio si y solo si cada coordenada es una
variable aleatoria. Vamos a demostrar este resultado.
DEMOSTRACIÓN:
𝑩𝟏 ∈ 𝕭(ℝ)
𝑩 = 𝑩𝟏 𝑿Ω𝑿. . . 𝑿Ω ∈ 𝕭(ℝ)
Entonces la imagen inversa de este conjunto se reduce a la imagen inversa de 𝐵1 bajo la función
𝑋1 y por hipótesis sabemos que esto es un elemento de F.
Esto demuestra que 𝑋1 es una variable aleatoria y de manera análoga tenemos que el resto de las
coordenadas del vector son variables aleatorias.
(𝑿𝟏 , . . . 𝑿𝒏 ): Ω → ℝ
a. 𝕭 es una ς -álgebra
Además, los conjuntos de la forma 𝑩𝟏 cruz, 𝑩𝟐 cruz etc. hasta 𝑩𝒏 son elementos de esta
colección B en donde cada 𝑩𝒊 es un boreliano de ℝ.
Tenemos que sigma de lado izquierdo está contenido en sigma de 𝔅 pero como 𝔅 es una sigma
álgebra, esto es simplemente 𝔅 y también tenemos que sigma de 𝔅(ℝ𝑛 ) es simplemente 𝔅(ℝ𝒏 )
pero el extremo izquierdo de estas contenciones es 𝔅(ℝ𝑛 ), esto demuestra que la colección 𝔅 es
𝔅(ℝ𝒏 ) y entonces efectivamente la imagen inversa de cualquier boreliano de ℝ𝑛 es un elemento
de la sigma álgebra F, esto concluye la demostración, por lo tanto es correcto definir un vector
aleatorio como un vector de variables aleatorias.
Las variables aleatorias del vector pueden ser independientes o más interesante aún, pueden estar
relacionadas unas con otras de alguna forma. En general, no podremos separarlas sin perder
ninguna información. Los vectores aleatorios surgen al observar o medir múltiples características
del resultado de un experimento aleatorio. Pensemos por ejemplo en escoger a una persona al azar
y aplicarle un cuestionario, el número de preguntas es la dimensión del vector de respuestas y en
general las preguntas o variables aleatorias tienen relación una con otra, en suma, podemos pensar
que las variables aleatorias son preguntas mientras que los vectores aleatorios son cuestionarios.
NOTA: Para hacer nuestra escritura más corta, cuando sea posible usaremos vectores de
dimensión dos y usaremos las letras: (X, Y) y las extensiones a dimensiones mayores serán
evidentes, a menos que se indique lo contrario.
Por ejemplo, aquí tenemos una definición en la que es suficiente referirse a un vector de dimensión
dos.
DEFINICIÓN: Vamos a decir que un vector aleatorio (X, Y) es discreto o continuo si cada
coordenada lo es. En la mayoría de los casos, solo consideraremos vectores discretos o continuos,
aunque existen sus combinaciones incluyendo variables aleatorias mixtas.
¿Qué nos interesa ahora? Lo mismo que antes, pero ahora en dimensiones mayores, nos interesa
estudiar las distribuciones de probabilidad de estos vectores aleatorios, es decir, distribuciones de
probabilidad en ℝ𝑛 . Habíamos mencionado antes que una variable aleatoria X, induce una medida
de probabilidad en ℝ, esa medida de probabilidad en ℝ se le llama la distribución de X y se le
expresa de manera equivalente mediante la función de distribución o la función de densidad si
existe. Un vector aleatorio, por ejemplo, de dimensión dos también induce una medida de
probabilidad ahora en ℝ2 dada de la siguiente manera:
Medida de probabilidad inducida: Para cualquier conjunto B elemento de los borelianos en ℝ2 ,
se define la probabilidad según el vector (X, Y) del conjunto B como la probabilidad de la imagen
inversa bajo el vector del conjunto B:
A esta medida de probabilidad se le llama la distribución del vector (X, Y). Nos interesa estudiar
estas medidas de probabilidad en ℝ𝑛 . En las siguientes secciones, estudiaremos conceptos
relativos a vectores aleatorios.
ANEXOS