Beruflich Dokumente
Kultur Dokumente
Probabilidad
Nivel Terciario
1. Espacios de Probabilidad 1
1.5. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.7. Anexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Variables Aleatorias 55
5. Convergencias 231
Espacios de Probabilidad
Es claro que nos enfrentaremos con algunos problemas, el primero es: a que le
calcularemos la probabilidad, en que condiciones?. estas y otras tantas preguntas
iremos estudiando a lo largo del curso, donde ademas intentaremos desarrollar
algunos modelos matematicos que nos faciliten el abordaje del calculo de proba-
bilidades.
2 1. Espacios de Probabilidad
Ejemplo 1
Se tira un dado y se observa la cantidad de puntos de la cara superior al caer.
Aqu = {1, 2, 3, 4, 5, 6} y sus subconjuntos unitarios son sucesos elementales.
Observemos que el conjunto {1, 2} no es un resultado indivisible, por ende no es
un suceso elemental.
Ejemplo 2
Se selecciona un individuo de Montevideo y se mide su altura en metros.
Es claro que medir su altura con dos decimales, es una mera aproximacion
de la verdadera altura del individuo. Un individuo podra eventualmente medir
1, 70 metros, pero tambien podra medir /2 metros, aunque nuestros utiles de
medicion no nos permitan saber con exactitud dicha medida.
momento alguno que mida 2, 20 metros. Es claro que poner, por ejemplo mil
metros, es una cota mas que razonable a los efectos practicos. En este ejemplo
nuestro espacio muestral es = (0, +). /
casos favorables 1
P (A) = =
casos posibles 6
Ejemplo 3
Tiramos un dardo sobre una pared, la base de la pared la medimos en una cierta
unidad tal que represente al intervalo [0, 1] y observamos la coordenada (horizon-
tal) en la que quedo el dardo. Es claro que = [0, 1].
a)
Haciendo una extension de la nocion de probabilidad anterior , podramos
tratar de calcular la probabilidad de que el dardo quede en el intervalo [1/3, 1/2].
Es razonable que dicha probabilidad sea calculada como la medida del intervalo
[1/3, 1/2] sobre la medida del intervalo [0, 1], es decir:
m([1/3, 1/2]) 1/2 1/3
P (dardo quede en [1/3, 1/2]) = = = 1/6
m([0, 1]) 10
De aqu deducimos que, en este ejemplo, el calculo de probabilidades se reduce
a medir conjuntos, por ejemplo, cual es la probabilidad de que el dardo quede
en una coordenada racional?, como hemos estudiado en Analisis I, la medida de
cualquier conjunto numerable es cero y por ende, tal probabilidad es cero.
Para cualquier subconjunto E del intervalo [0, 1], podemos hallar la pro-
babilidad que el dardo quede en E?. Tal pregunta es equivalente a a cualquier
subconjunto E del intervalo [0, 1] lo podemos medir con las nociones basicas de
medida?.
Como ya se menciono, para responder tendremos que hacer una breve intro-
duccion a los conceptos de medida. /
donde x + E = {x + y : y E}.
Por ejemplo: m(2 + [0, 1]) = m([2, 3]) = 3 2 = 1 = m([0, 1]).
| {z }
=[2,3]
Por ejemplo: m([0, 1] [2, 3] [5, 8]) = m([0, 1]) + m([2, 3]) + m([5, 8]).
Tomemos ahora un racional q del intervalo [0, 1], que representa la distancia
a la que estan los elementos en las clases, y formemos el conjunto Eq como sigue:
Eq = {(x + q)mod(1) : x E}
En otras palabras, sin usar modulo, a cada elemento del conjunto E lo tras-
b)
Aca estamos usando el axioma de eleccion que dice, resumidamente, que si uno tiene una
familia de conjuntos y toma un elemento de cada uno, entonces obtiene tambien un conjunto.
Eq = {x + q : x E si x + q 1} {x + q 1 : x E si x + q > 1}
Al hacer variar q sobre todos los racionales de [0, 1] obtenemos todos los
elementos de cada clase. Por ejemplo, como 1/e E, al sumarle q obtenemos el
elemento que dista el racional q de 1/e, al hacerlo para todos los racionales del
intervalo [0, 1] obtenemos todos los elementos de la clase de 1/e y esto vale para
todos los elementos de E en donde hay un representante de cada clase.
[ (1)
De lo anterior deducimos que Eq =[0, 1].
qQ[0,1]
c)
estamos suponiendo que x + q 1 y x + q 1, es analogo si no fuera as.
Concluimos que, de ser medible cada Eq , entonces miden todos una constante c.
A los racionales en [0, 1], por ser infinitos y numerables, renombremoslos con
qn , es decir, Q [0, 1] = +
n=1 {qn }.
Tratemos de indagar sobre los requisitos mnimos que deseamos que cum-
pla una probabilidad, retomemos el ejemplo de la tirada de un dado, aqu =
{1, 2, 3, 4, 5, 6}.
Definicion 1 (-algebra)
Dado un conjunto , llamamos - algebra de , o simplemente -algebra, a una
familia A, de subconjuntos de , tal que:
i) A =
6
ii) Si A A entonces Ac A
+
[
iii) Si A1 , A2 , . . . , An , . . . A entonces An A
n=1
Ejemplo 5
Dado un conjunto , P() es una - algebra, ya que P() y por tanto P()
es no vaca. Si A P() entonces Ac tambien es un subconjunto de , de donde
Ac P() y lo mismo ocurre para la union. /
Ejercicio 1
Dado un conjunto . Probar queA = {, } es una - algebra. La - algebra
A = {, } es llamada - algebra trivial.
Ejemplo 6
Sea un conjunto no numerable de numeros reales, probemos que
es una - algebra.
ii) Si A A entonces,
o bien A es numerable y Ac no lo es, pero (Ac )c = A es numerable y por
tanto Ac A
o bien A no es numerable pero por pertenecer a A, Ac es numerable y de
aqu que Ac A.
Tratemos de introducir ahora una - algebra que nos sea util para calcular
probabilidades sobre intervalos de numeros reales.
Proposicion 1
Sea A una - algebra de subconjuntos de , entonces , A.
Proposicion 2
Sea A una - algebra de subconjuntos de , si A1 , A2 , . . . , An , . . . A entonces
T+
n=1 An A
+ + +
!c
DeM organ
\ \ [
An = (Acn )c = Acn A
| {z }
n=1 n=1 n=1
An
Proposicion 3
Consideremos un conjunto y las - algebras A de subconjuntos de ( L,
\
con L algun conjunto de ndices). Entonces A = A es tambien una - algebra
L
de subconjuntos de .
Ejemplo 7
Sea = {1, 2, 3} y F = {{1, 2}}. Veamos que -algebras contienen a F:
P() = {, , {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}
Ejemplo 8
Los intervalos cerrados estan en B. En efecto, dado un intervalo cerrado [a, b],
sabemos que [a, b] = +
T
n=1 (a 1/n, b + 1/n) B. /
| {z }
B
P () = 1
Algunas cosas que son importantes resaltar son las siguientes, solo podemos
calcularle la probabilidad a los elementos de la - algebra, la probabilidad de
cualquier suceso es siempre mayor o igual a cero (mas adelante veremos que
tambien es menor o igual a uno), la probabilidad de la union disjunta es la suma
de las probabilidades, veremos en la proposicion 4 que esto es cierto tambien para
uniones finitas.
Ejemplo 9
Se tira una moneda al aire y se observa la cara superior al caer.
Pero supongamos ahora que s tenemos sospechas que la moneda este cargada,
pues al tirarla 100 veces, se obtuvieron 20 caras y 80 numeros.
Sin duda que este cambio altera sustancialmente nuestro concepto previo de
probabilidad, aqu se refleja en la obtencion de un espacio de probabilidades
distinto al anterior.
1. P () = 0
P (A B) = P (A) + P (B) P (A B)
Demostracion:
0, entoncesP() = 0.
2. Primero aclaremos que esta propiedad puede resultar inmediata a partir del tercer
axioma de Kolmogorov, esta bien que el estudiante la piense as, pero la idea es
la siguiente:
n
! +
! +
[ [ ax.iii) X
P Ai = P Ai = P (Ai )
i=1 i=1 i=1
n
X +
X
= P (Ai ) + P ()
| {z }
i=1 i=n+1 =0
n
X
= P (Ai )
i=1
disjuntos
3. Siendo P (A)+P (Ac ) = P (AAc ) = P () = 1, entonces P (A) = 1 P (Ac ).
disjuntos
P (B) = P (A (B A)) = P (A) + P (B A)
| {z }
0
6. Notemos que el suceso AB puede ser escrito como union disjunta de la siguiente
forma, A B = A (B Ac )
Luego,
disjuntos
P (A B) = P (A (B Ac )) = P (A) + P (B Ac ) (1.1)
Ejemplo 11
Un estudiante tiene una probabilidad p de responder una pregunta en un examen
oral. Se le ofrecen dos alternativas: a) Hacerle solo una pregunta; b) Hacerle tres
preguntas pero para salvar debe responder correctamente al menos dos.
El estudiante puede:
Ahora analicemos que opcion es mas conveniente, para ello veamos que opcion
tiene mayor probabilidad de salvar. Para que la opcion a) sea mas conveniente que
la b) debemos tener p > 3p2 (1 p) + p3 , resolviendo la desigualdad y teniendo en
cuenta que p es una probabilidad, tenemos que si p (0, 1/2) conviene la opcion
a), si p (1/2, 1) conviene la opcion b).
Ejercicio 2
Una determinada travesa puede hacerse con aviones bimotores o con cuadrimo-
tores. Los bimotores pueden volar con un solo motor y los cuadrimotores solo con
dos. La probabilidad de que un motor falle en la travesa es p. Cuales aviones
son los mas seguros?.
Ejemplo 12
Tenemos dos urnas con n bolillas cada una, numeradas de 1 a n. Se extrae al azar
una bolilla de la primer urna y otra de la segunda urna, sin reponer las bolillas se
repite el procedimiento hasta agotar las n bolillas. Se desea hallar la probabilidad
de que en alguna extraccion se tenga al menos una coincidencia.
Notemos que los casos posibles son (n!)2 , ya que cualquier permutacion de las
n bolillas de la primer urna es posible y por cada una de estas, podemos hacer
una permutacion de las n bolillas de la segunda urna.
Para solucionar el problema anterior uno podra definir los sucesos Bi como
hay exactamente una coincidencia y es en el lugar i-esimo, estos sucesos s son
disjuntos pero se torna muy difcil contar los casos favorables a cada suceso. El
lector interesado puede tratar de contarlos.
Sn
En definitiva, tenemos que calcular P ( i=1 Ai ), donde Ai es el suceso hay una
coincidencia en el i-esimo lugar. De las propiedades de la probabilidad tenemos
que !
n
[ n
X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n
donde el suceso Ai1 Ai2 Aik es el suceso hay coincidencia en los lugares
i1 , . . . , ik . Contemos los casos favorables a tal suceso:
i1 i2 ik
| {z }
| {z }
k lugares nk lugares
Para contar los casos favorables a este suceso, basta con observar que las n k
bolillas para los n k lugares en los que no necesitamos necesariamente coin-
cidencia pueden ser permutados, y esto para cualquiera de las urnas, por tanto
tenemos [(n k)!]2 casos favorables para este suceso. Pero observemos que en el
lugar i1 podra estar cualquiera de las n bolillas, una vez seleccionada una para
este lugar, en el lugar i2 podra estar cualquiera de las n 1 bolillas restantes, y
as sucesivamente, de donde la probabilidad deseada es:
n(n 1)(n 2) (n k + 1)[(n k)!]2 (n k)!
P (Ai1 Aik ) = 2
=
[n!] n!
n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n
| {z }
(nk)! n! (nk)! 1
Ckn n! = (nk)!k! n!
= k!
xn
que puede deducirse de la igualdad ex = +
P
n=0 n! . /
Ejemplo 13
Una Lotera tiene N numeros y un solo premio. Un jugador a) compra n billetes
de un sorteo (n N ) y otro jugador b) compra un solo billete durante n sorteos
consecutivos, de manera que los dos jugadores apuestan la misma cantidad.
Comencemos notando que el espacio muestral esta formado por los N numeros
de la Lotera, la cual se supone bajo el espacio de Laplace, es decir, todos los
numeros tienen probabilidad 1/N .
n
(N 1)
Pb = 1
N
n n
(N 1) 1 n
= 1 >1
N N N
de donde Pa > Pb .
Ejemplo 14 (Opcional)
Tenemos m bolillas y las queremos colocar aleatoriamente en n frascos, suponga-
mos n 1 y m n 1. Puede que mas de una bolilla quede en un frasco.
es el unico que queda libre, no puede ocurrir que el frasco 2 quede libre y as su-
cesivamente. Pero... como calculamos P (Bi ) ?, dejamos al lector indagar sobre
la dificultad de tratar de contar los casos favorables.
n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n
mbolillas
| {z } | {z }
k frascos nk frascos
n
! n m
k+1 n (n k)
[ X
P Ai = (1) Ck
i=1 k=1
nm
n
X (n k)m
P (ninguno de los n frasco queda libre) = 1 (1)k+1 Ckn
k=1
nm
m
Para reducir la escritura, llamemos f av(m, n) = nm 1 nk=1 (1)k+1 Ckn (nk)
P
nm
,
por lo tanto los casos favorables a que ninguno de los n 1 frascos queden libres
es f av(m, n 1) y de aqu que la probabilidad de que el frasco i-esimo sea el
f av(m,n1)
unico que quede libre es P (Bi ) = nm
.
Los ejemplos anteriores son una pequena muestra de lo difcil que puede ser
calcular probabilidades, sin duda que en el practico se resolveran problemas mas
sencillos.
Luego
+
! +
! + k
disjuntos disjuntos
[ [ X X
P An = P En = P (En ) = lm P (En ) =
k+
n=1 n=1 n=1 n=1
k
[
lm P ( En ) = lm P (Ak )
k+ k+
n=1
Luego:
+ +
!c +
por 1
\ \ [
P( An ) = 1 P ( An ) = 1 P( Acn ) = 1 lm P (Acn )
n+ | {z }
n=1 n=1 n=1
1P (An )
= lm P (An )
n+
+
\ +
[
lm sup An = Am
n+
n=1 m=n
+
[ +
\
lm inf An = Am
n+
n=1 m=n
En caso de que ambos coincidan, decimos que el lmite existe. En el caso que la
sucesion sea monotona, efectivamente coinciden, cosa que se vera en el practico.
P (A B)
P (A|B) =
P (B)
Ejemplo 15
Resolvamos el problema del inicio de la seccion. Se tira un dado y se quiere
calcular la probabilidad de obtener tres o menos puntos, dado que se sabe que
no salio un punto. Sea el suceso A = {1, 2, 3} que representa nuestros casos
favorables a priori y el suceso B = {2, 3, 4, 5, 6} que representa la informacion
P (AB) P ({2,3}) 2/6
que obtuvimos. Luego P (A|B) = P (B)
= P ({2,3,4,5,6})
= 5/6
= 52 .
Proposicion 6
Dado un espacio de probabilidades (, A, P ) y un suceso B tal que P (B) > 0,
entonces (B, AB , P ) es un nuevo espacio de probabilidad, donde AB = {A B :
A A} y P : AB R tal que P (A) = P (A|B).
E c = B E = B (A B) = B A = B |{z}
Ac
A
0
z }| {
P (A B)
i. P (A) = 0 para todo suceso A
P (B)
| {z }
>0
P (BB)
ii. P (B) = P (B|B) = P (B)
=1
+ +
P+
P (An B)
X P (An B) X
= n=1
= = P (An )
P (B) P (B)
n=1 | {z } n=1
P (An )
Lo cual es valido si P (A B) > 0 (de aqu se deduce que P (A) > 0 ya que
(A B) A)
Demostracion: Por ser A1 A1 A2 A1 . . . An1 y
P (A1 A2 . . . An1 ) > 0 tenemos que todas las probabilidades condiciona-
les estan bien definidas.
Por hipotesis P ( hi=1 Ai ) = P (A1 )P (A2 |A1 ) P (Ah |A1 Ah1 ), luego
T
Th+1
P( i=1 Ai ) = P A1 Ah Ah+1
= P (A1 Ah ) P (Ah+1 |A1 Ah )
| {z }
P (A1 )P (A2 |A1 )P (Ah |A1 Ah1 )
Ejemplo 16
Se reparten cuatro cartas de una baraja espanola,cual es la probabilidad que
sean los cuatro reyes?.
1
P (A1 A2 A3 A4 ) = P (A1 ) P (A2 |A1 ) P (A3 |A1 A2 ) P (A4 |A1 A2 A3 ) = 50
| {z } | {z } | {z }| {z } C4
4/50 3/49 2/48 1/47
Es claro que se esta usando que A y Ac son sucesos con probabilidad positiva.
La generalizacion de este resultado es lo que se conoce como Probabilidades
totales.
B, tenemos
n
X
P (B) = P (Ai )P (B|Ai )
i=1
Demostracion:
disjuntos Pn
P (B) = P (B ni=1 Ai ) = P (ni=1 (B Ai )) =
i=1 P (B A ) =
| {z } | {z } | {z i}
Ai P (Ai )P (BAi )
Pn
= i=1 P (Ai )P (B|Ai )
El lector podra verificar sin mayor dificultad que este resultado sigue siendo
valido si se considera una particion infinita pero numerable de sucesos An .
Ejemplo 17
Supongamos que en un cierto pas hay varios partidos polticos, entre ellos, el
90 % del electorado lo tienen los partidos A,B y C con un 50 %, 30 % y 10 %
respectivamente. Se esta promulgando una nueva ley y la proporcion de individuos
que estan a favor de dicha ley depende del partido poltico al que pertenecen.
Suponga que el 70 % de los electores del partido A estan a favor de la ley, el 20 %
en contra y al resto le es indiferente. En el partido B hay un 55 % en contra, un
20 % a favor y al resto le es indiferente. Por ultimo, tanto en el partido C como
en el resto de los partidos, el 30 % esta a favor, el 50 % en contra y al resto le es
indiferente.
De donde podemos concluir que menos de la mitad de los electores son los
que estan a favor de la ley. /
Ejemplo 18
Suponga que una caja tiene tres monedas, dos no cargadas y una de dos caras. Se
deja caer aleatoriamente una moneda al suelo y se observa que salio cara. Cual
es la probabilidad que la moneda tirada sea la de dos caras?.
1/3 1
z }| { z }| {
P (A1 ) P (B|A1 ) 1
P (A1 |B) = =
P (A1 ) P (B|A1 ) + P (A2 ) P (B|A2 ) 2
| {z } | {z } | {z } | {z }
1/3 1 2/3 1/2
Ejemplo 19
La distribucion de los grupos sanguneos en Estados Unidos es: Tipo A, 41 % ;
tipo B, 9 % ; tipo AB, 4 % y tipo O, 46 %. Se estima que, durante la segunda
guerra mundial, el 4 % de las personas pertenecientes al tipo O fueron clasificadas
como del tipo A; el 88 % de los de tipo A fueron correctamente clasificados; el 4 %
de los de tipo B se clasificaron como de tipo A y el 10 % de los de tipo AB fueron,
igualmente, clasificados como de tipo A. Un soldado fue herido y conducido a la
enfermera. Se le clasifico como del tipo A. Cual es la probabilidad de que tal
grupo sea ciertamente el suyo?.
0,41 0,88
z }| { z }| {
P (A1 ) P (B|A1 )
P (A1 |B) =
P (A1 ) P (B|A1 ) + P (A2 ) P (B|A2 ) + P (A3 ) P (B|A3 ) + P (A4 ) P (B|A4 )
| {z } | {z } | {z } | {z } | {z } | {z } | {z } | {z }
0,41 0,88 0,09 0,04 0,04 0,10 0,46 0,04
= 0, 93
/
Ejercicio 3
Estamos interesados en saber cual de dos analisis A y B es mejor para el diagnosti-
co de una determinada enfermedad, de la cual sabemos que la presentan un 10 %
de individuos de la poblacion. El porcentaje de resultados falsos positivosd) del
analisis A es del 15 % y el de B es del 22 %. El porcentaje de falsos negativose)
de A es del 7 % y de B es del 3 %.
1.5. Independencia
Definicion 9 (Independencia)
Dado un espacio de probabilidad (, A, P ), decimos que los sucesos A y B son
independientes si
P (A B) = P (A) P (B)
Ejemplo 20
Se lanzan dos monedas al aire y se observan sus caras superiores al caer.
En este caso = {(cara,cara), (cara, numero), (numero,cara), (numero,numero)},
sea A = P () y las probabilidades clasicas, es decir P (cara,cara) =
P (cara, numero) = P (numero,cara) = P (numero,numero) = 1/4
P (A B) = P (cara,cara) = 1/4
P (A) = P (cara,cara) (cara,numero) = 1/4 + 1/4 .
P (B) = P (cara,cara) (numero,cara) = 1/4 + 1/4
Aqu
P (A B) = P (cara,cara) = 1/3
P (A) = P (cara,cara) (cara,numero) = 1/3 + 1/6 = 1/2
P (B) = P (cara,cara) (numero,cara) = 1/3 + 1/6 = 1/2
Proposicion 10
Dado un espacio de probabilidad (, A, P ),
3. Si A es independiente de B entonces:
a) A es independiente de B c .
b) Ac es independiente de B.
c) Ac es independiente de B c .
1.6. Ejercicios
a) (
S c
T c
n=1 An ) = n=1 (An )
b) (
T c
S c
n=1 An ) = n=1 (An ) .
\
[
lm inf An = Ar
n=1 r=n
[
\
lm sup An = Ar
n=1 r=n
[
[
En = (En En1 )
n=1 n=1
11. Se tiran dos dados al azar y se quiere hallar la probabilidad de que la suma
de los puntos obtenidos sea igual a 10.
12. Una urna contiene a bolillas blancas y b bolillas negras. Al sacar al azar
r bolillas de una vez (suponiendo r a), cual es la probabilidad de que
todas ellas sean blancas?.
13. Se tiene una baraja de 40 cartas, donde hay 4 ases. Se reparten estas entre 4
personas, de manera que le toquen 10 cartas a cada una. que probabilidad
hay de que a cada una le toque un as?.
14. En una urna hay 20 bolillas numeradas de 1 a 20. Si se van sacando al azar
una a una sin reposicion, cual es la probabilidad de que la bolilla numero
8 salga precisamente en la octava extraccion?.
16. Se lanzan dos dados no cargados, uno verde y otro rojo. Calcular las pro-
babilidades de los siguientes eventos:
20. Tres urnas contienen bolillas rojas y azules. La primer urna tiene 3 rojas y
9 azules, la segunda urna tiene 8 rojas y 4 azules y la tercer urna tiene 2
rojas y 10 azules. Las trece cartas de trebol de un mazo de cartas francesas
son {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, QK}.
Se realiza el siguiente experimento:
Se extraen al azar del mazo dos cartas (conjuntamente).
24. Repetir el ejercicio anterior con los datos ligeramente modificados: La pro-
babilidad de que una persona extrada al azar de la poblacion tenga cierta
afeccion cardiaca es 0,002; la probabilidad de que fume es 0,10; la probabi-
lidad de que fume dado que padece la enfermedad es 0,40.
25. Una firma de contadores esta llevando a cabo una auditora sobre las practi-
cas contables de una empresa en la cual hay cuentas de clientes mayoristas
y cuentas de minoristas.
Se sabe que el 70 % de todas las cuentas son de mayoristas, y mas aun, se
sabe que el 10 % de las cuentas de mayoristas y el 20 % de las cuentas de
minoristas tienen algun tipo de error contable.
26. Para las elecciones de una cierta ciudad se han presentado dos candidatos
a la intendencia A y B. En toda la ciudad se establecieron unicamente tres
circuito de votacion y una vez hecho el escrutinio se obtuvo la siguiente
informacion:
28. Suponga que esta participando de un programa televisivo, donde, junto con
otras cuatro personas, deben elegir al azar una llave entre cinco, una de las
llaves abrira el cofre que esconde un premio importante.
Opcion B, cada persona extrae una llave y luego que todos tienen una
llave, las prueban.
a) A es independiente de (B C).
b) A es independiente de (B c C).
c) A es independiente de (B c C c ).
d ) A es independiente de (B C).
e) A es independiente de (B c C).
f ) A es independiente de (B c C c ).
1.7. Anexo
n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n
n+1
!
[ prop(5)
= P (( ni=1 Ai ) An+1 ) =
S
P Ai
i=1
hip
= P ( ni=1 Ai ) + P (An+1 ) P (( ni=1 Ai ) An+1 ) =
S S
Xn X
= (1)k+1 P (Ai1 Ai2 Aik )+
k=1 1i1 <i2 <<ik n
n
X X
n+2
(1) P (A1 An+1 ) + (1)k+1 P (Ai1 Aik1 Aik )
k=1 1i1 <<ik1 n
ik =n+1
n+1
! n
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n
n
X X
+ (1)k+1 P (Ai1 Aik1 Aik )
k=1 1i1 <<ik1 n
ik =n+1
n+2
+ (1) P (A1 An+1 )
n+1
! n+1
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n+1
Variables Aleatorias
56 2. Variables Aleatorias
Por ultimo, nos sirve que en los primeros k lanzamientos obtengamos los 6s,
o tambien en los ultimos k o tambien en cualquier ubicacion en la que podamos
ubicar a los k 6s en los n lugares, en total Ckn posibilidades. Cada ubicacion
nos da lugar a un suceso disjunto de otro, pero igualmente tiene probabilidad
(1/6)k (1 1/6)nk , por lo tanto
k nk
1 1
P (A) = Ckn 1
6 6
k nk
1 1
P (obtener exactamente k veces, 4 o 6) = Ckn 1
3 3
P (exactamente 5 estudiantes salvaron el examen) = C510 (0, 3)5 (1 0, 3)5 = 0, 154
Retomemos el ejemplo de la tirada del dado pero ahora en un caso mas sencillo,
el dado se tira 4 veces, de forma independiente y se quiere hallar la probabilidad
de obtener exactamente 2 veces el seis. La probabilidad de tal evento la podemos
calcular como antes, pero ahora nuestro estudio sera dirigido en otro sentido,
veamos primero quien es nuestro espacio muestral:
Por ejemplo X (1, 4, 5, 2) = 0, X (5, 2, 6, 6) = 2. De esta forma, nos
interesan todos los tal que X() = 2, es decir X 1 ({2}).
f 1 (Y ) = {x A : f (x) Y }
1. f 1 (B) = A.
S+ S+ 1
2. f 1 (Y Z) = f 1 (Y ) f 1 (Z), en general f 1 n=1 Yn = n=1 f (Yn ).
3. f 1 (Y c ) = (f 1 (Y ))c .
4. Si Y Z f 1 (Y ) f 1 (Z).
5. f 1 (Y Z) = f 1 (Y ) f 1 (Z).
Sin duda que, pensando mas en general, debemos exigir que X 1 ({2}) sea
un suceso, para poderle calcular su probabilidad, dicha probabilidad es la pro-
babilidad de obtener exactamente 2 seis. De querer calcular la probabilidad de
obtener al menos un seis , podramos pensarlo como P (X 1 ({1, 2, 3, 4})), de don-
de X 1 ({1, 2, 3, 4}) tambien debera ser un suceso.
lo tanto, deseamos exigirle a la funcion X que X 1 (B) sea un suceso, para todo
B Ba) , de donde llegamos a la siguiente definicion:
Ejemplo 22
1. Si tiramos un dado no cargado n veces y definimos la funcion X : R
tal que X() =cantidad de seis obtenidos, trabajando sobre el espacio
clasico, X es una variable aleatoria por ser A = P().
Proposicion 11
Dado un espacio de probabilidades (, A, P ) y una variable aleatoria X, entonces
nt
Siendo B = {x} P ({ : X() = x}) = P (X = x)
nt
Siendo B = (a, b] P ({ : X() (a, b]}) = P (a < X b)
nt
Siendo B = (, b] P ({ : X() (, b]}) = P (X b)
Analogamente para cualquier intervalo. El estudiante nunca debe olvidar que
P (X = x) es simplemente una notacion, pues formalmente solo podemos calcular
probabilidades a los sucesos y X = x no es un suceso. Es una notacion para
simplificar la escritura pero no tiene nada conceptual nuevo.
Uno podra preguntarse por que no mejor definir a la funcion de modo que
F (x) = P (X = x), lamentablemente no es propicio ya que puede ocurrir que
P (X = x) = 0 para todo x R, por ejemplo si elegimos al azar un punto del
intervalo [0, 1], y nuestra variable aleatoria es X : [0, 1] R tal que X(x) = x
entonces por ser {x} un conjunto numerable P (X = x) = 0 como vimos en el
primer captulo (trabajamos en el espacio ([0, 1], B[0,1] , P ) donde P (A) = m(A)).
Ejemplo 23
Si tiramos un dado no cargado 4 veces y definimos como antes X : R tal que
k 4k
X() =cantidad de seis obtenidos, entonces P (X = k) = Ck4 61 1 61
donde k = 0, . . . , 4
0 si x < 0
P (X = 0) si 0 x < 1
si 1 x < 2
P (X = 0) + P (X = 1)
FX (x) =
P (X = 0) + P (X = 1) + P (X = 2) si 2 x < 3
si 3 x < 4
P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3)
si x 4
1
iii. F es no decreciente.
F (b) = P (X b) = P (X 1 (, b] ) = P (X 1 (, a] (a, b] )
= P (X 1 (, a] X 1 (a, b] ) = P (X 1 (, a] ) + P (X 1 (a, b] )
iii. Sea a < b, entonces F (b) F (a) = P (a < X b) 0, luego F (a) < F (b)
y por lo tanto F es no decreciente.
= X 1 +
S S+ 1
n=0 (, n] = n=0 X (, n] nuevamente es una sucesion
creciente pero ahora de sucesos, por tanto
=
z }| {
+
[ 1 cont.de
1=P X (, n] = lm P (X 1 (, n]) = lm F (n)
n=0 | {z } la prob. n+ n+
%
=
z }| {
+
\ 1 cont.de
0=P X (, n] = lm P (X 1 (, n]) = lm F (n)
la prob. n+ n+
| {z }
n=0
&
=X 1 (,a]
z }| { F (xn )
+ z }| {
\ cont.de
F (a) = P X 1 (, a] = P X 1 (, xn ] = lm P (X 1 (, xn ])
| {z } la prob. n+
n=0
&(,a]
Ejemplo 24 Z x
1 t2
Consideremos la funcion F : R R tal que F (x) = e 2 dt
2
2
x2
Luego, F 0 (x) = 1
2
e > 0 x R y por tanto F es no decre-
ciente. Del Teorema fundamental del calculo integral F es continua y ademas
lmx F (x) = 0 y lmx+ F (x) = 1, este ultimo resultado podra ser demos-
trado con integrales multiples en Analisis II.
Proposicion 13
Sea F la funcion de distribucion de la v.a. X, entonces
F es continua en a P (X = a) = 0
cero.
union num
[ X
1 = P () = P ( { : X() = xn }) = P (X = xn )
de disjuntos
n n
En este seccion indagaremos sobre los tipos de variables aleatorias que pode-
mos encontrar. Si bien hay una gran cantidad de variables aleatorias con compor-
tamientos distintos, basicamente podemos extraer tres tipos esenciales, los cuales
dan lugar a cualquier tipo de variable aleatoria. Dichos tipos de variables seran:
las variables aleatorias discretas, las variables aleatorias absolutamente continuas
y las variables aleatorias singulares. En nuestro curso estudiaremos con profun-
didad los dos primeros casos y simplemente daremos un ejemplo del tercero,
mostraremos tambien como cualquier distribucion se puede expresar a traves de
estos tres componentes.
Una primer respuesta seguramente sea que solo tome valores en un conjunto
discreto, es decir, que su recorrido sea un conjunto discreto. Esta idea es valida,
pero la complementaremos un poco para no dejar de lado algunos otros casos
similares. Por ejemplo, si la variable tiene como recorrido al conjunto de los
racionales, entonces el recorrido no es numerable y por ende no entrara dentro
de esta clasificacion, sin embargo, al tomar una cantidad numerable de valores
podemos tratarla de igual forma que si tomara valores solo en los naturales.
A partir de esta idea ya vemos que la definicion de v.a. discreta podra ser.
el recorrido es numerable. Sin embargo hay otro punto a aclarar.
El argumento anterior nos muestra que el concepto de v.a. discreta tiene que
tener en cuenta a la probabilidad. Una posibiliad sera, X es discreta si existe
un conjunto numerable B tal que P (X B) = 1. Esta definicion contempla las
dos observaciones anteriores, sin embargo, tal vez sea conveniente expresarlo en
terminos de la funcion de distribucion.
Observemos que, cosa que el lector debera probar, existe un conjunto B nu-
Ejercicio 4
Probar que X es una v.a. discreta segun la definicion 14, si y solo si existe un
conjunto numerable B tal que P (X B) = 1.
Ejercicio 5
Probar que si X tiene recorrido numerable entonces es discreta.
lidad nula.
Ejemplo 25
Se repite independientemente un experimento, n veces y con una misma pro-
babilidad de exito p. Entonces la variable aleatoria X : R tal que
X() =cantidad de exitos obtenidos en es una variable aleatoria cuyo reco-
rrido es Rec(X) = {0, 1, 2, . . . , n}, finito y por tanto numerable. De aqu que su
funcion de cuanta es p : R R tal que
C n pk (1 p)nk si k {0, 1, 2, . . . , n}
k
p(k) =
0 en otro caso
Proposicion 14
Sea X una variable aleatoria discreta, con recorrido Rec(X) = k {xk } y cuanta
pX : R R entonces, su funcion de distribucion F : R R es tal que
X
F (x) = pX (xk )
k:xk x
Demostracion:
Observacion:
Ejemplo 26
1. Se elige al azar un punto del intervalo [0, 1], definimos X : [0, 1] R tal
que X() = . Es inmediato verificar que X es una variable aleatoria sobre
el espacio ([0, 1], B[0,1] ). Luego, siendo P (A) = m(A) A B[0,1] , tenemos
que:
b)
En realidad esta es una version simplificada de lo que en analisis se llama soporte, sin
embargo, a los efectos de nuestro curso bastara con esta idea.
Diremos que una variable aleatoria con esta funcion de distribucion es una
variable aleatoria uniforme en el intervalo [0, 1], su grafico puede observarse
en la Figura 2.3.
Rx t 2
2. Como vimos en el Ejemplo 24, F : R R tal que F (x) = 1 e 2 dt es
2
2
1 e t2
una funcion de distribucion. Siendo f : R R tal que 2
no negativa,
entonces X es una variable aleatoria absolutamente continua cuya funcion
de densidad es f y su soporte es {x R : f (x) > 0} = R.
Ejemplo 27 (v.a. mixta)
0 si x < 0
Consideremos la funcion F : R R tal que F (x) = x si 0 x < 1/2
si x 1/2
1
si [0, 1/2)
X() = .
1/2 si [1/2, 1]
Etapa 1 Dividamos el intervalo [0, 1] en tres partes iguales y definamos F (x) = 1/2
si x (1/3, 2/3). Notemos que 1/2 es el promedio de los valores que toma
F en los intervalos vecinos donde ya esta definida.
Etapa 2 Dividamos el intervalo [0, 1/3] en tres partes iguales y definamos F (x) = 1/4
si x (1/9, 2/9). Notemos que 1/4 nuevamente es el promedio de los valores
Para cerrar este introduccion sobre los distintos tipos de variables aleatorias
mostremos que toda variable aleatoria es una mezcla de los tres tipos vistos:
discreta, absolutamente continua y singular.
Sea X una variable aleatoria cualquiera con funcion de distribucion F . Por ser
F monotona solo admite discontinuidades de primera especie (saltos), los cuales
son numerables como vimos en el curso de Analisis I, sea J = {x1 , x2 , . . . , xn , . . .}
el conjunto de los puntos donde se obtienen tales saltos (si F es continua J = ),
sea pi = P (X = xi ) para todo xi J, recordemos que pi = F (xi ) F (x
i ).
X
Definamos Fd : R R tal que Fd (x) = pi , la parte discreta de F .
i:xi x
Definamos ahora Fs : R R tal que Fs (x) = F (x) Fd (x) Fac (x), la parte
singular.
Con esto cerramos nuestra introduccion a los distintos tipos de variables alea-
torias, para asentar las ideas, mostremos ahora algunos ejemplos de variables
aleatorias discretas y absolutamente continuas.
por ejemplo I{Xa} es uno si la variable aleatoria X toma un valor menor o igual
que a y cero en otro caso.
Una primera variable aleatoria que tenemos que mostrar es la v.a. degenerada:
Si bien se trata de una variable aleatoria muy simple, nos sera muy util en
variadas oportunidades. Antes de pasarnos al estudio de variables asociadas a
experimentos repetidos veamos una variable aleatoria que refleja nuestra indife-
rencia.
X
La funcion de distribucion de X es tal que F (x) = pX (k).
kN:kx
Este resultado que ahora obtenemos informalmente sera probado con riguro-
sidad mas adelante. /
p (1 p)n si n N
pX (n) =
0 en otro caso
por ejemplo
a a a r r r
| {z }
n azules
Para que sean n fracasos antes del tercer exito, tenemos que la ultima bolilla
solo puede ser roja, lo que nos da lugar a poder ubicar las otras 2 bolillas rojas
en cualquiera de los (n + 3) 1 lugares, quedando as determinado el lugar donde
quedaran las azules.
C n+31 (n /n)3 (1 n /n)n si n N
31 1 1
pX (n) = P (X = n) =
0 en otro caso
si = (a2 , a4 , r2 , a5 ) X() = 1
si = (a2 , r6 , a3 , r1 ) X() = 2
si = (r4 , r1 , r6 , r3 ) X() = 4
Observemos primero que la menor cantidad de bolillas rojas que puede salir
es max{0, n N2 }, pues si la cantidad de bolillas azules (N2 ) es mayor que la
cantidad de bolillas que se extraen(n), entonces podran ser todas azules, pero
en caso contrario, si n > N2 , entonces cuando se terminen las azules, necesa-
riamente tendremos que extraer rojas y en el caso extremo, tendremos n N2
bolillas rojas. Por otro lado, la mayor cantidad de bolillas rojas que podremos
extraer es mn{n, N1 }, pues si n N1 pueden extraerse todas rojas pero si
N2
Por ultimo, cada eleccion de k bolillas rojas da lugar a las Cnk posibles
elecciones de las bolillas azules y por lo tanto tenemos CkN1 Cnk
N2
casos favorables.
N
N N N1
Ck 1 Cnk z }|2 {
pX (k) = CnN si k {max{0, n (N N1 )}, . . . , mn{n, N1 }}
0 en otro caso
donde n N .
La generalizacion aqu es la siguiente, mas alla de las bolillas ser rojas o azules,
pensemos que los elementos de nuestra poblacion tiene dos caractersticas posibles
y X cuenta la cantidad de elementos extrados con una de esas caractersticas,
las extracciones deben ser sin reposicion.
Consideremos el evento
donde s, t 0; k N.
Hipotesis iii. Las llamadas llegan solas y no simultaneas. Para ello pediremos que
Hip adicional: Supongamos que la probabilidad de que llegue exactamente una llamada
en el intervalo (s, s + t] es aproximadamente t, donde es una constante
positiva.
# # # #
t t 2t (n 1)t
0, t = 0, , ,t
n n n n
t
P (Bi ) =
n
Claro esta que por los supuestos realizados contamos a lo sumo una llama-
da por cada sub intervalo, de donde tenemos que la cantidad de llamadas se
distribuye aproximadamente igual a una v.a. Xn Bin(n, nt )
k nk
t t
Pk (t) = lm P (Xn = k) = lm Ckn
1
n+ n+ n n
k nk
n! t t
= lm 1
n+ (n k)!k! n n
nk
n(n 1) (n k + 1) (t)k
t
= lm k
1
n+
| n
{z } k! | n
{z }
1
et
k t
(t) e
=
k!
Sea ahora la v.a. X que cuenta la cantidad de llamadas que llegan a la central
()k
k!
e si k N
pX (k) =
0 en otro caso
xn
P+
el lector puede verificar inmediatamente de la identidad ex = k=0 n! , que
P+
k=0 pX (k) = 1.
m(B) m(B)
en [a, b] y P : B[a,b] R tal que P (B) = = tenemos que
m([a, b]) ba
(, B[a,b] , P ) es un espacio de probabilidad sobre el que definimos la variable
aleatoria X : R tal que X() = , luego
m([a, x]) xa
ii. Si a x b P (X x) = P (X < a) +P (a X x) = =
| {z } m[a, b] ba
=0
Rx
y tenemos que F (x) =
f (t)dt, por tanto X es una variable aleatoria absolu-
tamente continua.
0 si t < 0
Definiendo f : R R tal que f (t) =
et si t 0
Z x
tenemos que F (x) = f (t) dt y por tanto f es la densidad de F , de donde
obtenemos que T1 es una variable aleatoria absolutamente continua.
0 si t < 0 0 si t < 0
F (t) = P (T t) = ; f (t) =
1 et si t 0 et si t 0
gamma.
Por lo tanto
1 1
X X (t)i t
P (G t) = 1P A0(0,t] A1(0,t] A2(0,t] A1 i
0,t = 1 P (A(0,t] ) = 1 e
i=0
| {z } i=0
i!
(t)i t
i!
e
0 si t < 0
F (t) = 1
X (t)i t
1 e si t 0
i=0
i!
P1
i=0 xi1 xi =x0 x1
z
" }| {
1 t 1 i1 i
#
X e X (t) (t)
F 0 (t) = i(t)i1 (t)i = et 0 1 +
=
i=0
i! i=1
(i 1!) i!
(t)1 et (t)1
t
= e 0 = = t1 et
( 1)! ( 1)! ( 1)!
mas aun, () es valida para cualquier > 0 y por ende podemos generalizar
aun mas la funcion de distribucion de la v.a. gamma.
Definicion 18
Decimos que la variable aleatoria G tiene distribucion gamma de parametros , ,
donde , > 0, si su densidad es
0
si t < 0
f (t) =
t1 et si t 0
()
Anotamos G Gamma(, )
R1 (+)
El lector podra verificar que 0 ()()
x1 (1 x)1 dx = 1 y por en-
En 1718 de Moivre propuso que, siendo una v.a. Binomial (n, p), entonces
! 2
b
np et /2
Z
lm P a< p b = dt
n+ np(1 p) a 2
b 2 b 2 a 2
et /2 et /2 et /2
Z Z Z
Es inmediato observar que dt = dt dt.
a 2 2 2
Ahora podemos concentrarnos en la funcion : R R tal que
x 2
et /2
Z
(x) = dt
2
t 2 x 2
x
e( ) /2 eu /2
x
Z Z
u= t
dt = du = 1
2 2 x+
Si bien hoy en da existe software gratuito que nos proporciona multiples apro-
ximaciones, tambien calculadoras de bolsillo que nos calculan integrales, daremos
una tabla con algunos valores de la funcion de distribucion normal estandar.
x 2
et /2
Z
(x) = dt para x 0
2
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
f 1 (B) B B B
Proposicion 15
Sea X una variable aleatoria definida sobre (, A) y sea g : R R medible,
entonces Y = g(X) es una variable aleatoria sobre (, A).
Ejemplo 42
Sea Y = X 2 , donde X U [0, 1]. Definiendo g : R R tal que g(x) = x2 tenemos
que Y = g(X), siendo g continua es medible y por ende Y es una v.a.
1. Si x < 0 entonces
2. Si x > 1 entonces
3. Si x [0, 1] entonces
1
Por tanto tenemos que la densidad de Y es f (x) =
2 x
I(0,1) (x), recordando la
distribucion beta, tenemos que Y Beta(1/2, 1)
Proposicion 16
Sea X una v.a. discreta con cuanta pX y g una funcion medible, entonces Y =
P (Y = yj ) = P (g(X) = yj ) = P ({ : g(X()) = yj })
[ disjuntos X
= P { : X() = xn } = P (X = xn )
| {z }
n:g(xn )=yj n:g(xn )=yj pX (xn )
Ejemplo 43
Jugamos en una ruleta, en la cual podemos apostar a que sale cualquiera del 0
al 36, apostamos 100 pesos a que sale el 6 y 50 pesos a que sale el 13. La banca
paga 36 veces lo apostado en caso de acierto. Sea G la ganancia neta obtenida.
Hallar la distribucion de G.
Luego
36 100 150 si X() = 6
G X() = 36 50 150 si X() = 13
150 si X() 6= 6, X() 6= 13
Siendo G una funcion de una v.a. discreta, G es una v.a. discreta (omitimos
verificar que g es medible) luego
36
X 35
pG (150) = P (X = n) (P (X = 6) + P (X = 13)) =
n=0
| {z } | {z } | {z } 37
1/37 1/37 1/37
1
pG (36 100 150) = P (G = 36 100 150) = P (X = 6) = 37
1
pG (36 50 150) = P (G = 36 50 150) = P (X = 13) = 37
Proposicion 17
Sea X una variable aleatoria absolutamente continua con densidad fX y cuyo
soporte esta incluido en un intervalo I. Sea g : R R tal que g es monotona
estricta y derivable en I.
1. Si g es creciente,
0
si x nf g(I)
fX (g 1 (t))
FY (x) = FX (g 1 (x)) si x g(I) y fY (t) = Ig(I) (t)
g 0 (g 1 (t))
si x sup g(I)
1
2. Si g es decreciente,
0 si x nf g(I)
fX (g 1 (t))
FY (x) = 1 FX (g 1 (x)) si x g(I) y fY (t) = Ig(I) (t)
g 0 (g 1 (t))
si x sup g(I)
1
Si x J, entonces
g 1 () sup(I)
fX (g 1 (x))
Z Z Z
c.v
0 1
dx = fX (y) dy = fX (y) dy = 1
g (g (x)) y=g 1 (x) g 1 () nf(I)
fX (g 1 (x))
Por lo tanto IJ (x) es una densidad de Y . Luego, tenemos que
g 0 (g 1 (x))
0 si x nf(J)
FY (x) = FX (gI1 (x)) si x J
si x sup(J)
1
Ejemplo 44
Sea Y = log(X) donde X U (0, 1). Tomando g : R+ R tal que
g(x) = log(x) la cual cumple las hipotesis de la Proposicion 17, siendo ademas
decreciente y g(0, 1) = R+ , tenemos que si x > 0 entonces
FY (x) = 1 FX (g 1 (x)) = 1 ex
| {z }
ex
Veamos ahora algun ejemplo donde partiendo de una v.a. absolutamente con-
tinua obtenemos una v.a. discreta.
Ejemplo 45
Sea Y = [37 X], la parte entera de 37 X donde X U (0, 1).
Proposicion 18
Sea X una v.a. absolutamente continua donde el soporte es un intervalo I. Sea
FX la funcion de distribucion de X:
creciente unif
FW (x) = P (W x) = P (FX1 (U ) x) = P (U FX (x)) = FX (x)
Ejemplo 46
Tenemos un lote de 10 lamparas, de las cuales podemos suponer que su tiempo
de duracion, en cientos de horas, es una v.a. T con distribucion exponencial de
parametro = 1. Supongamos que las lamparas se comportan independiente-
mente. Simulemos sus posibles duraciones.
Sea U U [0, 1], por medio de una calculadora obtenemos diez posibles reali-
zaciones, sean estas
x1 = 0, 65604519
x2 = 0, 601382888
x3 = 0, 392669513
x4 = 0, 618611053
x5 = 0, 590480635
x6 = 0, 321641554
x7 = 0, 053028585
x8 = 0, 005054893
x9 = 0, 85543434
x10 = 0, 431976858
X U [0, 1] T exp(1)
ti = log(1 xi )
x1 = 0, 6560451903 t1 = 1, 067244997
x2 = 0, 6013828879 t2 = 0, 919753942
x3 = 0, 3926695127 t3 = 0, 498682176
x4 = 0, 6186110532 t4 = 0, 963935567
x5 = 0, 5904806348 t5 = 0, 892771087
x6 = 0, 3216415540 t6 = 0, 388079449
x7 = 0, 0530285845 t7 = 0, 054486370
x8 = 0, 0050548933 t8 = 0, 005067713
x9 = 0, 8554343397 t9 = 1, 934021478
x10 = 0, 4319768576 t10 = 0, 565593117
Teorema 19
Sea X una v.a. con funcion de distribucion FX y definamos FX : [0, 1] R tal
que F (y) = nf{x : FX (x) y}.
nt nt
Demostracion: Anotemos FX = F y FX = F . Primero notemos que, si x >
con = nf{x : F (x) y}, entonces, por ser nfimo, existe
x1 nf{x : FX (x) y} tal que x1 < x, de la monotona de F tene-
mos que F (x) F (). Luego, de la continuidad por derecha de F tenemos
que F () = lmx+ F (x) y y de aqu que {x : F (x) y}, es decir
(1)
F (y) = mn{x : F (x) y}. De aqu se deduce que F (F (y)) y.
| {z }
=
Ejemplo 47
Sea X una v.a. con funcion de distribucion ,
0 si x < 1
x1
si 1 x < 3/2
F : R R tal que F (x) =
2/3 si 3/2 x < 2
si x 2
1
Consideremos el evento
donde s, t 0; k N.
Hipotesis iii. Las llamadas llegan solas y no simultaneas. Para ello pediremos que
la probabilidad de llegar al menos dos llamadas en (0, t] (suceso A2(t)),
dado que llego al menos una llamada en (0, t] (suceso A1(t)) tiende a cero
cuando t 0.
A2(t)A1(t)
z }| {
P (A2(t) A1(t)) P (A2(t))
P (A2(t)|A1(t)) = = 0
P (A1(t)) P (A1(t)) t0
Notemos que P (A2(t)) = 1 P0 (t) + P1 (t) y P (A1(t)) = 1 P0 (t), por
lo tanto
1 P0 (t) P1 (t)
0
1 P0 (t) t0
Comencemos con P0 (t) = P (A00, t ) y mostremos que es una funcion del tipo
et .
A00, t nos dice que no llegan llamadas en el intervalo (0, t] y esto ocurre si y
solo si no llegan llamadas en los intervalos
t t 2t (n 1)t
0, , , ,..., ,t
n n n n
por ende A0(0, t] = A0(0, t ] A0( t , 2t ] A0((n1)t ,t] y aplicando la hipotesis ii.,
n n n n
hip. i.
P0 (t) = n1
i=0 P A0
it (i+1)t
(n, n ]
= (P0 (t/n))n t > 0, n.
| {z }
P (A0(0,t/n] )
r
En resumen, si r es una racional positivo, entonces P0 (r) = P0 (1)
r r
P0 (1) = P0 (r) P0 (t) P0 (r ) = P0 (1)
t rn r t
P0 (1) = lm P0 (1) P0 (t) lm P0 (1) n = P0 (1)
n+ n+
t
P0 (t) = P0 (1) t > 0.
=1
z }| {
1 P0 (t) P1 (t)
= 1 6 0
1 P0 (t) t0
| {z }
=1
t
En resumen 0 < P0 (t) < 1 y P0 (t) = P0 (1) t > 0, definiendo
= log P0 (1), > 0, tenemos que
P0 (t) = et t > 0
Recordemos que bajo las tres hipotesis introducidas hemos llegado a que la
probabilidad de que que no lleguen llamadas en el intervalo (0, t] es:
P0 (t) = et t > 0
Una vez que tenemos P0 (t), tratemos de hallar Pk (t) para todo k. Sean k
1, s 0 y t > 0. Entonces llegan k llamadas en (0, s + t] si y solo si o no llega
ninguna llamada en (0, s] y llegan k en (s, s + t], o llega una en (0, s] y k 1 en
(s, s + t], y as sucesivamente, por ende tenemos que
Las uniones son disjuntas y por la hipotesis ii. cada suceso Ai(0,s] es indepen-
diente de Aki
(s,s+t] pues se definen sobre intervalos disjuntos, por ende tenemos
que
k k
nt
X X
ki
P (Ak(s,s+t] ) = P (Ak(0,s+t] ) = Pk (s + t) = P (Ai(0,s] ) P (A(s,s+t] )= Pi (s)Pki (t)
i=0 i=0
| {z } | {z }
Pi (s) Pki (t)
" k2 #
ec. (1) X
= et
Pi (s)Pki (t) + Pk1 (s)P1 (t) + Pk (s) |{z}
i=0 P0 (t)
e t
z }| {
1 P0 (t)
Por otro lado, notemos que lm = y de la hipotesis iii. que
t0 t
es lmt0 1P1P
0 (t)P1 (t)
0 (t)
P1 (t)
= 0, obtenemos lmt0 1P 0 (t)
= lmt0 1P 0 (t)
1P0 (t)
= 1 y de
aqu que
et
z }| {
P1 (t) P1 (t) 1 P0 (t)
lm = lm = y
t0 t t0 1 P0 (t) t }
| {z } | {z
1
Sea Pk0 (s) la derivada por derecha de Pk , recordemos que t > 0, por tanto
Pk (s + t) Pk (s)
Pk0 (s) = lm
t0 t
Pk2
por (1) i=0 Pi (s)Pki Pk1 (s)P1 (t) Pk (s)(et 1)
= lm + +
t0
| t
{z } | t
{z } | t
{z }
0 ver (2) Pk1 (s) Pk (s)
Pk2 Pk2 Pk
i=0 Pi (s)Pki i=0 Pki (t) j=2 Pj (t) 1 P0 (t) P1 (t)
(2) 0 = 0
t t j=ki t t t0
P1 (t) = tet , t 0
(t)k t
Pk (t) = e , t 0, k = 0, 1, 2, . . .
k!
2.6. Ejercicios
a) P (a X b) = FX (b) FX (a )
c) P (a X < b) = FX (b ) FX (a ).
a) Determine el recorrido de X.
0 si x (, 1)
si x [1, 1/2)
1/4
FX (x) =
3/4
si x [1/2, 2)
si x [2, +)
1
k si 1 x 3
fX (x) =
0 en otro caso
0 si x < 0
FX (x) =
1 ex si x 0
c x2 si 0 x 1
fX (x) =
0 en otro caso
a) Hallar el valor de c;
11. Un contratista de obras gana las licitaciones a las que se presenta con una
probabilidad 2/7. Supongamos que el resultado (adjudicarle o no la obra)
es en cada licitacion independiente de las anteriores (el resultado no se ve
afectado si gano o perdio en licitaciones anteriores).
12. Una agencia de viajes organiza un sorteo con 5 premios diferentes, en el cual
intervienen 200 sobres que se han depositado en una urna. Dona Pancracia
ha enviado 20 sobres.
13. Una empresa produce ciertas piezas y se sabe que la probabilidad de que
una pieza sea defectuosa es p = 0, 02. Se toma una muestra de 100 piezas.
a) Utilizando que
1 nk
Ckn = n (n 1) (n k + 1)
k! n+ k !
probar que P (X = k) P (Y = k)
n+
19. Suponga que los momentos en que tienen lugar los nacimientos se reparten
al azar durante todas las horas del da. Suponga tambien que en una cierta
ciudad tiene lugar por termino medio un nacimiento cada 65 minutos.
20. Una cierta empresa tiene camiones tanque que tardan en ir a abastecerse de
nafta, ida y vuelta, un tiempo que puede ser representado por una variable
aleatoria uniforme en el intervalo [50, 70] (medido en minutos).
a) Hallar c;
i.{X 80} ii.{60 X 90} iii.{|X 70| < 10} iv.{|X 60| 20}
a b a+1
b x
si x > b
fX (x) =
0 en otro caso
25. Una lampara se enciende todos los das a las 7 p.m.. Se sabe que su tiempo
de duracion, una vez encendida, es una v.a. X exp(1/10). La lampara
se apaga al otro da a las 7 a.m.. Sea T el tiempo que dura encendida la
lampara un determinado da.
a) Probar que P (T > t + s|T > t) = P (T > s), para todo s, t > 0. Esta
propiedad es conocida como falta de memoria.
27. Sea T una v.a. tal que X exp() y sea Y = mn{, X}. Hallar la distri-
bucion de Y .
28. X es una variable aleatoria tal que X U [0, 1]. Hallar la distribucion de
la n-esima cifra decimal de X.
30. Sea X una variable aleatoria que tiene distribucion absolutamente continua
FX y se define una nueva variable aleatoria Y por medio de Y = eX .
32. Un juego consiste en tirar tres dados no cargados, si su suma es mayor que
12 tira nuevamente los tres dados. Si la suma de lo obtenido en los tres
dados es menor o igual a 12, tira solo dos dados. Suponga que usted, junto
con un amigo, juegan a este juego y gana aquel que obtenga el menor valor
en la segunda tirada.
Simule (a partir de U U [0, 1]), una competencia de este juego.
Esperanza Matematica
20 + 22 + 25 + 22 + 22 1 3 1
= 20 + 22 + 25
5 5 5 5
20 + 22 + 25 + 22 + 22
= P (X = 20)20 + P (X = 22)22 + P (X = 25)25
5
De esta forma podemos dar una primera idea de lo que es esperanza. Intuiti-
vamente, la esperanza es el promedio de los valores del recorrido, ponderado por
sus respectivas probabilidades. Para el caso discreto podemos formalizar un poco
sin ahondar en mayores detalles tecnicos.
X
E(X) = P (X = xn )xn
n
Ejemplo 49
Sea X una v.a. tal que X U {1, 2, . . . , n}. Notemos que el recorrido es finito y
por ende la esperanza existe, ademas
n
X 1 1 n(n + 1) n+1
E(X) = i= =
i=1
n n 2 2
Ejemplo 50
Sea X una v.a. tal que X Bin(n, p), entonces
n n n
X X X n!
E(X) = i P (X = i) = i Cin p i ni
(1 p) = i p i (1 p)ni
i=0 i=1 i=1
(n i)! i!
n n
X n! X (n 1)!
= p i (1 p)ni = np p i1 (1 p)ni
i=1
(n i)! (i 1)! i=1
(n i)! (i 1)!
n1 n1
X (n 1)! X
= np j
p (1 p)n(j+1)
= np Cjn1 p j (1 p)(n1)j
(n (j + 1))! j!
j=0 | j=0
{z }
Cjn1
| {z }
=1()
Estudiemos ahora la esperanza de una v.a. con recorrido infinito, por ejemplo:
Ejemplo 51
Sea X una v.a. tal que X P oiss().
+ + +
X X n X n
E(X) = n P (X = n) = n e = n e
n=0 n=1
n! n=1
n!
+ + m
X n1
X
= e = e =
n=1
(n 1)! m=0
m!
| {z }
e
Ejemplo 52
Sea X una v.a. con Rec(X) = {2n : n N } y P (X = 2n ) = 1/2n .
P+
Verifiquemos que se trata de una cuanta, en efecto n=1 1/2n = 1, pero
+ + +
X
n n
X
n1 X
2 P (X = 2 ) = 2 n = 1 = +
n=1 n=1
2 n=1
Veamos ahora un ejemplo donde se pone en evidencia que hay que verificar
siempre la existencia de la esperanza por mas que la suma sea convergente.
Ejemplo 53
Sea X una v.a. discreta con recorrido {1, 2, 3, 4, . . .} = {n(1)n : n N } y
tal que P (X = n(1)n ) = 26n2 . Recordemos que + 2 2
P
n=1 1/n = /6 y por tanto
P+ n
P+ 6
n=1 P (X = n(1) ) = n=1 2 n2 = 1. Ahora,
+ + +
X 6 X n 1 6 X (1)n 6
xn P (X = xn ) = 2 n(1) 2 = 2 = 2 ln(1/2)
n=1
n=1 n n=1 n
La idea intuitiva de esperanza para las v.a. discretas podemos utilizarla pa-
ra definir la esperanza de las v.a. absolutamente continuas. Recordemos que
decamos que era el promedio ponderado de los valores que toma la v.a. por
sus probabilidades. En v.a. absolutamente continuas, la suma se convierte en la
integral y la probabilidad que pondera se convierte en la densidad, el lector no
debe olvidar que simplemente estamos dando una idea intuitiva.
Z +
E(X) = t fX (t) dt
Z + Z k Z k Z +
|t|fX (t) dt = |t|fX (t) dt + |t|fX (t) dt + |t|fX (t) dt
k k
| {z } | {z }
=0 =0
Z k Z k
= |t| f (t) dt k fX (t) dt = k
k |{z} X k
k | {z }
=1
Ejemplo 54
Sea X una v.a tal que X U (a, b). Siendo S(X) = [a, b], de lo anterior tenemos
que la esperanza existe.
=0 =0
z }| { z }| {
Z + Z a Z b Z +
E(X) = t fX (t) dt = tfX (t) dt + tfX (t) dt + tfX (t) dt
a b
b
t2 b b 2 a2
Z
1 1 b+a
= t dt = = =
a ba ba 2 a 2(b a) 2
Ejemplo 55
Sea X tal que X exp(). Siendo el soporte no negativo, la esperanza existe si
la integral es convergente, es decir:
Z + Z +
partes
E(X) = t fX (t) dt = t et dt =
0
+ +
et + et et + 1
Z Z
= t 0
dt et dt = =
| {z } 0 0 0
=0
Ejemplo 56
Sea X una v.a. tal que X N (, ). Es inmediato verificar que la esperanza
existe, por ejemplo usando que |t|fX (t) es un infinitesimo de mayor orden que
e|t| para |t| + y el criterio de comparacion por lmites. Luego,
Z + Z +
t ( t
)
/2
2
c.v. x + x2 /2
E(X) = e dt =t e dx =
2 2 x= 2
Z + Z +
1 x2 /2 x 2
= e dx + ex /2 dx =
2 2
| {z } | {z }
=1(1) =0(2)
en (1) se usa que la densidad de una normal (0, 1) integra uno, en (2) se usa
que la funcion es absolutamente convergente e impar, por ende su integral es cero.
/
Ejemplo 57
1
Sea X una v.a. tal que su densidad es f : R R tal que f (x) = , el
R + 1 (1 + x2 )
lector podra verificar que (1+x2 ) dx = 1 y por ende se trata efectivamente
de una densidad. A saber, esta distribucion recibe el nombre de Distribucion de
Cauchy, estandar. Luego,
+
ln(1 + x2 )
Z
x
dx = lm = +
0 (1 + x2 ) x+ 2
ranza como
Z +
x dF
R +
Siempre que la integral
|x| dF sea finita.
La anterior definicion nos proporciona una herramienta muy util. Por ejemplo
si X es una v.a. mixta tal que su funcion de distribucion es F , como vimos antes,
podemos descomponer a F en su parte discreta mas su parte absolutamente
continua, es decir, F = Fd + Fac , de donde,
Z + Z + Z + Z +
E(X) = x dF = x d(Fd + Fac ) = x dFd + x dFac =
X Z +
= xn P (X = xn ) + x F 0 (x)dx
n
Sin duda que los puntos xn son aquellos donde F presenta un salto, ya que si F
no presenta un salto sabemos que P (X = xn ) = 0. Por otro lado, F 0 es calculada
en todo punto donde sea F derivable, donde no sea derivable la definimos como
cero. Como dijimos antes, F es derivable en casi todo punto y es integrable.
Veamoslo en un ejemplo particular:
Ejemplo 58
Sea U una v.a tal que U U (0, 1) y sea X = mn{X, 1/2}.
0 si x < 0
F (x) = P (X x) = P (mn{U, 1/2} x) x si 0 x < 1/2
si x 1/2
1
Luego,
Z + Z 1/2
X
0 3
E(X) = xn P (X = xn )+ x F (x)dx = 1/2 P (X = 1/2) + t 1 dt =
8
|0
| {z }
n
1/2 {z }
=1/8
Teorema 20
Sea X una v.a. absolutamente continua, entonces
Z + Z 0
E(X) = (1 F (x)) dx F (x) dx
0
Z 0 Z 0 Z x Z 0 Z 0
F ubini
F (x) dx = f (t) dt dx = f (t) dx dt
| t {z }
tf (t)
Z 0
= tf (t) dt (3.2)
Z + Z 0 Z +
E(X) = xf (x) dx = xf (x) dx + xf (x) dx
0
Z + Z 0
= (1 F (x)) dx F (x) dx
0
Ejemplo 59
Del ejemplo 55 tenemos que si X exp() entonces E(X) = 1/. Usando el
resultado anterior tenemos que:
+ 0 +
1 x + 1
Z Z Z
E(X) = (1 F (x) ) dx F (x) dx = ex dx = e 0
=
0 | {z } | {z } 0
1ex =0
El lector podra recordar que en el ejemplo 55, fue bastante mas complicado
pues haba que aplicar integracion por partes.
Proposicion 21
Sean X e Y dos variables aleatorias sobre (, A, P ), integrables (existe su espe-
ranza) y tales que X() Y () para todo . Entonces E(X) E(Y )
Z + Z 0
E(X) = (1 FX (x)) dx FX (x) dx
Z + 0 Z 0
Corolario 21.1
Sea X e Y variables aleatorias tales que |X| Y e Y es integrable, entonces X
es integrable.
Z + Z +
0 (1 F|X| (x)) dx (1 FY (x)) dx = E(Y ) < +
0 0
xb
Si a > 0, luego FY (x) = P (aX + b x) = P (X a
) = FX ( xb
a
) y de
aqu que
+ Z 0
xb xb
Z
c.v.
(1 FX ) dx FX dx =
0 a a y= xb
a
Z + Z b/a
a (1 FX (y)) dy a FX (y) dy =
b/a
Z + Z 0 Z 0 Z b/a
a (1 FX (y)) dy a FX (y) dy + a (1 FX (y)) dy a FX (y) dy =
0 b/a 0
Z 0
aE(X) + a 1 dx = aE(X) + b
b/a
E(aX + b) = aE(X) + b
contenidos de analisis real y es por este motivo que solo veremos la prueba para
los dos casos mas importantes: discretas y absolutamente continuas. Pero ojo,
no confundirse, el resultado E g(X) = g E(X) generalmente no es valido,
salvo que la transformacion g sea afn.
Teorema 23
S
Sea X una v.a. discreta con recorrido Rec(X) = n {xn } y g : R R una funcion
medible, entonces, siendo Y = g(X),
X
E(Y ) = g(xn )P (X = xn )
n
S
Demostracion: Recordemos que Y es una v.a. discreta y si Rec(Y ) = j {yj }
X
tenemos que P (Y = yj ) = P (X = xn ), luego
n:g(xn )=yj
X X X
E(Y ) = yj P (Y = yj ) = yj P (X = xn ) =
j j n:g(xn )=yj
n:xn Rec(X)
g(xn ) z }|X {
X X z}|{ X
= yj P (X = xn ) = g(xn )P (X = xn )
j n:g(xn )=yj j n:g(xn )=yj
X
= g(xn )P (X = xn )
n
Ejemplo 60
Se tira un dado no cargado 6 veces, nuestro exito es obtener un 5, sabemos que
la cantidad de exitos en estas condiciones es una v.a. X donde X Bin(6, 1/6),
6 6
(1) X X
E(Y ) = E(|X 1|) = |i 1|pi = (1 0)p0 + (i 1)pi
i=0 i=1
6
X X 6 6
X 6
X
= p0 + i pi pi = p 0 + i pi pi =
i=1 i=1 i=1 i=1
| {z } | {z }
E(X)=1 1p0
6
= p0 + 1 + p0 1 = 2p0 = 2(5/6) = 0, 67
Este dato puede ser interpretado diciendo que al repetir muchas veces el expe-
rimento, el valor de X obtenido se aleja, en promedio, 0, 67 de su valor esperado.
Teorema 24
Sea X una v.a. absolutamente continua cuyo soporte esta incluido en un intervalo
I. Sea g : R R tal que g es monotona estricta y derivable en I, entonces, siendo
Y = g(X) tenemos que
Z +
E(Y ) = g(x)fX (x) dx
Z sup(I) Z +
= g(x)fX (x) dx = g(x)fX (x) dx
nf(I)
Ejemplo 61
Sea X tal que X exp(), ya sabemos que E(X) = 1/, tratemos de calcular
E(X 2 ).
Z + Z +
(1) 2
2
E(X ) = E(g(X)) = 2
x fX (x) dx = x2 ex dx =
0 2
En (1) se utiliza integracion por partes, el lector puede operar para llegar al
resultado. /
Teorema 25
Sea X una v.a. con distribucion FX , g : R R una funcion medible e Y = g(X),
entonces Z +
E(Y ) = g(x)dFX
linealidad
E (X) E (x0 ) + (X x0 ) = (x0 ) + E(X) x0
Eligiendo en particular x0 = E(X), tenemos que E (X) E(X) .
3.3. Momentos
Definicion 23 (Momentos)
Dada una v.a. X y un natural k,
Observacion:
linealidad
E(X E(X)) = E(X) E(X) = 0
Teorema 27
Sea X una v.a. tal que existe su momento de orden k, entonces existe su momento
de orden s, para s = 0, . . . , k.
Demostracion: Sea s un natural tal que s k, aqu tenemos que |X|s 1+|X|k
y como |X|s 0 tenemos que 0 |X|s 1 + |X|k . Aplicando la Proposicion 21 y
(1)
el corolario 21.1 tenemos que 0 E(|X|s ) 1 + E(|X|k ) < y por ende existe
el momento de orden s. En (1) se utiliza la observacion anterior.
Definicion 24 (Varianza)
Dada una variable aleatoria X, llamamos varianza de X, al momento centrado
de segundo orden.
nt
V (X) = E(X E(X))2
Teorema 28
Sea X una v.a., entonces, en condiciones de existencia:
1. V (X) 0.
nt
4. V (X) = E(X 2 ) E 2 (X), (E 2 (X) =(E(X))2 ).
V (X) = E(X )2 = ( )2 P (X = ) = 0
| {z }
=1
4. Sea E(X) =
Z
V (X) = E(X ) = E(X 2X ) = (X 2 2X 2 )dFX
2 2 2
Z Z
= X dFX 2 XdFX + 2 = E(X 2 ) 2 + 2 = E(X 2 ) 2
2
= E(X 2 ) E 2 (X)
5. E(X(X 1)) = E(X 2 ) E(X), resta aplicar V (X) = E(X 2 ) E 2 (X) para
obtener la tesis.
nt
p
X = V (X)
Sin embargo, el desvo estandar de una v.a. puede ser interpretado como la
distancia media entre los valores del recorrido de X y su valor esperado.
Ejemplo 62
Sea X una v.a. tal que X U {1, 2, . . . , n}.
n
2
X 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
E(X ) = i2 P (X = i) = =
| {z } n 6 6
i=1
1/n
(n + 1)(2n + 1) (n + 1)2 n2 1
y por ende V (X) = E(X 2 ) E 2 (X) = =
6 4 12
n2 1
de donde tenemos que el desvo de X es X = /
2 3
Ejemplo 63
Sea X una v.a. tal que X Bin(n, p). Notemos que en este caso, al intervenir
el factorial en P (X = k) = Ckn p k (1 pnk ), es conveniente hallar la varianza
|{z}
n!
(nk)!k!
n
X n
X
E(X(X 1)) = k(k 1)Ckn p k (1 nk
p) = k(k 1)Ckn p k (1 p)nk
k=0 k=2
n n
X n! X n!
= k(k 1) p k (1 p)nk = p k (1 p)nk
k=2
(n k)!k! k=2
(n k)!(k 2)!
n
X (n 2)! c.v.
= n(n 1)p 2 p k2 (1 p)nk =
k=2
(n k)!(k 2)! j=k2
n2
X (n 2)!
= n(n 1)p 2 p j (1 p)n2j = n(n 1)p 2
j=0
(n 2 k)!j!
| {z }
n2
X
Cjn2 p j (1 p)n2j = (p + 1 p)n2
j=0
Por ende
= np(1 p)
Ejemplo 64
Sea X un v.a. tal que X P oiss(), recordemos que E(X) = . Nuevamente
aqu es conveniente primero hallar E(X(X 1)).
+ +
X k X k
E(X(X 1)) = k(k 1) e = k(k 1) e
k=0
k! k=2
k!
+
X k2
= 2 e = 2
(k 2)!
|k=2 {z }
=1
Ejemplo 65
Sea X tal que X U (0, 1). Recordemos que E(X) = 1/2
+ 1
x3 1 1
Z Z
2 2
E(X ) = x fX (x) dx = x2 dx = =
0 3 0 3
Observacion: Si Y es una v.a. tal que Y U (a, b), podemos pensar que
Y = (b a)X + a. Por las propiedades de la varianza tenemos que
(b a)2
V (Y ) = V ((b a)X + a) = (b a)2 V (X) =
12
Ejemplo 66
Sea X una v.a. tal que X exp(). Recordemos que E(X) = 1/.
Z + Z +
partes
2
E(X ) = 2
x fX (x) dx = x2 ex dx = 2/2
0
Por ende V (X) = 2/2 1/2 = 1/2 . Observemos aqu que el desvo es
X = 1/ = E(X).
Ejemplo 67
Sea X una v.a. tal que X N (, ). Recordemos que E(X) = .
+ +
(x )2 ( x 2 t2
Z 2
Z
e ) /2 dx =
c.v. 2
V (X) = et /2 dt
Z + 22 2
t= x
t 2
= 2 et /2 dt
2
Por lo tanto V (X) = 2 . Es bueno observar que en una variable aleatoria nor-
mal, los parametros y son respectivamente su esperanza y su desvo estandar.
/
Puede ocurrir que E(e tX ) exista solo para t = 0, por ejemplo si X se distribuye
1
Cauchy, esto es, con densidad fX : R R tal quefX (x) = (x2 +1)
. Es inmediato
verificar que fX es una densidad, aqu tenemos que
+
e tx
Z
tX
E(e )= dx converge t = 0
(x2 + 1)
Notemos que puede ocurrir tambien que E(e tX ) exista para algun otro valor
de t, eso dependera de la distribucion de X.
Antes de ver algunos ejemplos veamos dos resultados que nos seran muy utiles.
Teorema 29
Sea X una variable aleatoria acotada, es decir, existe k R tal que |X()| k
para todo . Entonces E(e tX ) existe para todo t R.
Teorema 30
Sea X una v.a. con funcion generatriz de momentos MX : (t0 , t0 ) R. Sea
a > 0 y b R y consideremos la v.a. Y = aX + b, entonces la generatriz de
momentos de Y es
Demostracion:
Ejemplo 68
Sea X tal que X U {1, 2, . . . , n}. Por ser X acotada, MX es definida sobre R.
t t(n+1)
n
1 1
n 1 e e
si t 6= 0
k
X X
MX (t) = E(e tX ) = e tk = et =
n 1 et
n n
1 si t = 0
k=1 k=1
et 1 e tn
si t 6= 0
En resumen MX (t) = 1 et n
1 si t = 0
Ejemplo 69
Sea X una v.a. tal que X Bin(n, p). Por ser X acotada, MX es definida sobre
R, llamemos q = 1 p. Entonces
n n
binomio
X X
MX (t) = E(e tX ) = e tk Ckn p k q nk = Ckn (pet )k q nk = (pet + q)n
de N ewton
k=0 k=0
Nuevamente MX es de clase C . /
Ejemplo 70
Sea X tal que X geom(p). Aqu X no es acotada, sea q = 1 p 6= 0, entonces
+ +
tX
X
tk k
X serie p
MX (t) = E(e )= e pq = p(et q)k =
k=0 k=0
geom. 1 et q
t
para todo t tal que |e q| < 1, es decir t (ln(q), ln(q)).
p
Por lo tanto tenemos que MX : (ln(q), ln(q)) R y MX (t) = . /
1 et q
Ejemplo 71
Sea X una v.a. tal que X P oiss(). Entonces
+ k + k
X
tk
X (et ) t t
MX (t) = E(e tX
)= e e = e = ee e = e(e 1)
k=0
k! k=0
k!
xk
P+
Aqu la esperanza existe para todo t R, recordemos que ex = k=0 k! x R.
/
Ejemplo 72
Sea X una v.a. tal que X U (0, 1). Por ser X acotada tenemos que MX es
definida sobre R. Entonces
tx t
Z 1 e 1 = e 1 si t 6= 0
MX (t) = E(e tX ) = e tx 1 dx = t 0 t
0
1 si t = 0
Ejemplo 73
Sea X tal que X exp(). Recordemos que > 0, entonces
Z + Z +
tX tx x
MX (t) = E(e )= e e dx = e(t)x dx
0 0
t< e(t)x +
= 0
=
t t
Por lo tanto MX : (, ) R y MX (t) = .
t
/
Ejemplo 74
Comencemos por hallar la funcion generatriz de momentos de una normal
estandar, es decir Z donde Z N (0, 1).
+ +
e tx
Z Z
2 1 2
MZ (t) = E(e ) = tZ
ex /2 dx = extx /2 dx
2 2
Z + Z +
1 (xt)2 +t2 2 1 (xt)2 2
MZ (t) = e 2 dx = et /2 e 2 dx = et /2
2 2
| {z }
=1()
()
R +
En se usa que si Y N (t, 1) entonces
fY (x) dx = 1.
Sea ahora X una v.a. tal que X N (, ), entonces podemos pensar que
X = Z + , donde Z N (0, 1).
2 t2 /2 2 t2 /2+t
MX (t) = e t MZ (t) = e t e = e
Teorema 31
La funcion generatriz de momentos determina, de forma unica, la distribucion de
una variable aleatoria.
Analisis Real, como por ejemplo las condiciones para intercambiar derivada con
integral (de Lebesgue o de Riemann-Stieltjes) de una funcion parametrica.
Ejemplo 75
Sea X una v.a. tal que X exp(), sea a > 0 e Y = aX. Recordemos que
MX : (, ) R es tal que MX (t) = t
. Luego
/a
MY (t) = E(e tY ) = E(e taX ) = MX (ta) = = =
ta ta /a t
Teorema 32
Sea X una v.a. con funcion generatriz de momentos MX : (t0 , t0 ) R donde
t0 (0, +], entonces
dk
MX (t)|t=0 = E(X k )
dtk
+
! +
!
+
(tX)n ) (tx)n
Z
T aylor
X X
MX (t) = E(e tX ) = E = dFX
n=0
n! n=0
n!
+ Z + + n Z + +
(tx)n tn
t
X X X
= dFX = (x)n dFX = E(X n )
n! n! n!
n=0 n=0
n=0
| {z }
E(X n )
+ + k
dk dk X n n
X
n t d n t
MX (t) = E(X ) = E(X ) =
dtk dtk n=0 n! n=0
dtk n!
+ +
n(n 1) (n k + 1) tnk tnk
X X
n
= E(X ) = E(X n )
n=k
n! n=k
(n k)!
Sin lugar a duda que este resultado nos simplificara mucho el trabajo a
la hora de calcular esperanzas y varianzas. Por ejemplo, recordemos que en
una v.a. X U (0, 1), tenamos que E(X) = 1/2 y MX : R R tal que
t
e 1 si t 6= 0
MX (t) = t . Luego,
1 si t = 0
MX (t) 1 et 1 t L0 Hopital et 1
MX0 (0) = lm = lm = lm = 1/2
t0 t t0 t2 t0 2t
d 2 t2 /2+t
2 2 t2 /2+t
E(X) = e |t=0 = ( t + )e |t=0 =
dt
d2 2
2 2 t2 /2+t 2 2 2 2 t2 /2+t
E(X ) = ( t + )e |t=0 = (( t + ) + )e |t=0 = 2 + 2
dt2
Claro esta que si uno ya conoce la esperanza y varianza de una v.a. no tiene
que hacer todo este proceso, el resultado es util cuando se puede obtener la funcion
generatriz de momentos de una cierta v.a. en un intervalo (t0 , t0 ). Para obtener
los distintos momentos tenemos que hallar las derivadas en cero.
Siendo X una v.a. tenemos que eitX = cos(tX) + isen(tX), la cual tambien
es una variable aleatoria pero ahora en C. Luego |e itX() | = 1 para todo t R y
todo , por ende, siendo una v.a. acotada tenemos que su esperanza existe
para todo t real, aqu definimos E(eitX ) = E(cos(tX)) + iE(sen(tX)).
Tomando a i como una constante, podemos ver que (t) = E(e (it)X ), luego, para
obtener una forma explcita de la funcion caracterstica de una variable aleatoria
no hay mayores diferencias que para obtener la generatriz de momentos, sin duda
que hablamos intuitivamente.
Definicion 28 (Mediana)
Sea X una variable aleatoria con funcion de distribucion F . Llamamos mediana
de X a:
Ejemplo 76
Sea X una v.a. tal que X U {1, 2, . . . , n}. La funcion de distribucion de X es
F : R R tal que
0 si x < 1
[x]
X
F (x) = 1/n = [x]/n si 1 x n
i=1
1 si x > n
Si n es par, entonces F (n/2) = (n/2)/n = 1/2 y por ende xme = n/2, notemos
que es el menor valor del recorrido que es mayor o igual a 1/2.
Ejemplo 77
Sea X una v.a. tal que X N (, ). Aqu tenemos que F es continua y por ende
F (xme ) = 1/2, el problema es hallarlo. Notemos que por ser la densidad de X
simetrica con respecto a , esto es: f ( x) = f ( + x), entonces
Z Z +
f (t) dt = f (t) dt = 1/2
Definicion 29 (Cuantiles)
Dada una variable aleatoria X y un real k en [0, 1], llamamos cuantil k-esimo a:
xk = nf{x R : F (xk ) k}
Iguales comentarios que para la mediana valen para los cuantiles. En particu-
lar, los cuantiles de orden 1/4 y 3/4 son llamados respectivamente primer cuartil
3.7. Ejercicios
2. Se lanzan tres monedas no cargadas hasta obtener por primera vez tres
caras. Cual es el numero medio de lanzamientos requeridos?.
a) Y = 2X + 1
b) Y = X 2
c) Y = X 3
9. Una persona quiere abrir una puerta y tiene n llaves, de las cuales solo
una corresponde a la cerradura. La persona va eligiendo las llaves al azar y
probando abrir la puerta segun las siguientes opciones:
i. separa las llaves con las que probo abrir las puertas,
10. Se escriben 3 cartas y sus respectivos sobres y se ensobran las cartas al azar
de modo que la probabilidad de cualquiera de las ubicaciones de las cartas
en los sobres es la misma. Cuantas cartas espera que queden correctamente
ensobradas.
11. Un jugador va lanzando una moneda no cargada hasta obtener dos caras
sucesivas o dos numeros sucesivos. Cual es el valor esperado de lanzamien-
tos.
12. Sea X una v.a. con esperanza . Probar que E(X c)2 se minimiza con
c = . S ugerencia: desarrollar E[(X ) + ( c)]2 .
13. Decimos que una v.a. discreta X es simetrica, si existe R tal que
P (X = + x) = P (X = x), x R. Decimos que una v.a. absoluta-
mente continua X es simetrica, si existe R tal que fX ( + x) =
fX ( x), x R.
Pruebe en los casos anteriores que E(X) = .
14. Sea X una v.a. con distribucion logstica, es decir, con densidad f : R R
tal que
et
f (t) =
(1 + et )2
a) X Ber(p).
b) X Bin(n, p).
c) X Geom(p).
d ) X P oiss().
e) X U {1, . . . , n}.
f ) X U (a, b).
g) X exp().
17. Sea X una v.a. discreta con Rec(X) {0, 1, . . . , n, . . .}. Probar directa-
mente que
+
X
E(X) = P (X n)
n=1
18. a) Sea X una v.a. integrable y positiva, probar que E(1/X) 1/E(X).
b) Sea X una v.a. integrable y positiva, probar que E(ln X) E(ln X).
e|xa|/b
fX (x) =
2b
Teorema 33
Sea X una v.a. con funcion de distribucion F , entonces
Z + Z 0
E(X) = (1 F (x)) dx F (x) dx
0
Z t Z t Z u
xdF = [F (t) F (x)] dx [F (t) F (x)] dx =
0 0 | {z } 0
0
Z u Z u Z u
[F (t) 1] dx + [1 F (x)] dx = u [F (t) 1] + [1 F (x)] dx
0 0 0
3.8 Anexo 181
Z u Z t Z +
Por tanto: u [F (t) 1] + [1 F (x)] dx xdF [1 F (x)] dx
0 0 0
Pasando al limite con t +, tenemos que u[F (t)1] 0 y de aqu que
t+
Z u Z + Z +
[1 F (x)] dx xdF [1 F (x)] dx, tomando ahora lmite
0 0 0
con u + obtenemos que:
Z + Z +
xdF = [1 F (x)] dx
0 0
Z 0 Z 0
Es analogo probar que xdF = F (x) dx.
Vectores Aleatorios
Elegimos una persona al azar entre las veinte y observamos su color de ojos
y cabello. Definamos X igual a uno si la persona elegida tiene ojos de color claro
y cero si tiene ojos de color oscuro. Definimos Y igual a cero si la persona tiene
cabello castano, uno si tiene cabello negro y dos si tiene cabello rubio.
*
1
X (B) A para todo boreliano B Bn
Observacion:
Proposicion 34
*
Sea (, A) un espacio probabilizable y X : Rn una funcion vectorial tal que
*
X = (X1 , . . . , Xn ), entonces:
*
X es un vector aleatorio cada una de las Xi son variables aleatorias
* *
1
X (B) = { : X () B}
= { : (X1 (), . . . , Xn ()) B1 Bn }
= { : X1 () B1 , . . . , Xn () Bn }
n
\
= { : X1 () B1 } . . . { : Xn () Bn } = Xi1 (Bi )
i=1
*
Ahora, podemos en particular tomar B = B1 R R, de donde, si X
es un vector aleatorio, tenemos que
*
1
X (B) = X11 (B1 ) X21 (R) Xn1 (R) = X11 (B1 ) A
| {z } | {z }
A partir de ahora, en virtud del teorema anterior, cada vez que nos referimos
a un vector aleatorio pensaremos en una n-upla de variables aleatorias sobre un
mismo espacio (, A).
*
Notacion: Al igual que para variables aleatorias, si X es un vector aleatorio
sobre un espacio de probabilidad (, A, P ), estaremos interesados en calcular la
*
probabilidad de que X pertenezca a un determinado boreliano B, esto lo anota-
remos:
* * nt *
1
P X (B) = P : X () B = P X B
*
Siendo X = (X1 , . . . , Xn ) y B = B1 Bn , como ya vimos antes tenemos
*
que: X 1 (B) = ni=1 Xi1 (Bi ) es decir:
T
n
* \
{ : X () B} = { : Xi () Bi }
i=1
de donde anotaremos
n
* \ nt
P (X B) = P {Xi Bi } = P X1 B1 , . . . , Xn Bn
i=1
* nt * nt
1
P (X (B)) = P (X B) = P (X1 b1 , . . . , X1 bn )
*
Definicion 31 (Funcion de distribucion de X )
*
Dado un espacio de probabilidad (, A, P ) y un vector aleatorio X =
*
(X1 , . . . , Xn ) llamamos funcion de distribucion de X a la funcion
d) lm F *(x1 , . . . , xn ) = 1
xi + X
i=1,...,n
2. Tomemos dos reales x e y tal que x < y, probemos por ejemplo que
FX1 ,...,Xn (x, . . . , xn ) FX1 ,...,Xn (y, . . . , xn ).
Si X1 () x X1 () y, luego
{ : X1 () x, . . . , Xn () xn } { : X1 () y, . . . , Xn () xn }
!
\
P X1 yk , X2 x2 , . . . , Xn xn =
kN
!
cont. de
\
P X1 yk , X2 x2 , . . . , Xn xn =
la prob.
kN
Por ende FX1 ,...,Xn es continua por derecha en su primer componente, analo-
gamente se prueba para el resto de las componentes.
T eo de
lm Fx,...,Xn (x, x2 , . . . , xn ) = lm FX1 ,...,Xn (k, x2 , . . . , xn ) =
x pasaje x
cont. de
lm P (X1 k, X2 x2 , . . . , Xn xn ) =
k+ la prob.
\ \
P {X1 k, X2 x2 , . . . , Xn xn =P Ak = 0
kN
| {z } kN
Ak | {z }
[
{X1 x1 , . . . , Xj1 xj1 , Xj k, Xj+1 xj+1 , . . . Xn xn } =
kN
[
{X1 x1 , . . . , Xj1 xj1 , Xj k , Xj+1 xj+1 , . . . Xn xn } =
kN
| {z }
teo de
lm FX1 ,...,Xn (x1 , . . . , xj1 , xj , xj+1 , . . . , xn ) =
xj + pasaje
lm lm lm lm P (X1 x1 , . . . , Xj xj , . . . , Xn xn )
xn + xj+1 + xj1 + x1 +
1 2 . . . n F (x1 , x2 , . . . , xn ) 0
b) lm F *(x1 , . . . , xn ) = 1
xi + X
i=1,...,n
4. 1 2 . . . n F (x1 , x2 , . . . , xn ) 0
Al igual que para variables aleatorias, adoptamos esta definicion por ser la mas
usada en la bibliografa en general, sin embargo, puede ocurrir que el recorrido
no sea discreto.
Teorema 36
*
Sea X un vector aleatorio discreto, sea F * : Rn R su funcion de distribucion
X
* S
y Rec{X } = k {(x1,k , . . . , xn,k )}, entonces:
X
F *(x1 , . . . , xn ) = P (X1 = x1,k , . . . , Xn = xn,k )
X
k tal que
x1,k x1 , . . . , xn,k xn
Ejemplo 78
Sean X e Y dos variables aleatorias tal que su cuanta conjunta viene dada por:
P (X = i, Y = j) i = 1 i = 2 i = 3
j=0 1/6 1/4 1/4
j=1 1/6 1/12 1/12
P1 P2
Notemos que j=0 i=1 P (X = i, Y = j) = 1 por lo tanto la distribucion
del vector (X, Y ) queda determinada por la tabla anterior, en efecto, hallemos la
funcion de distribucion, aqu F : R2 R es tal que:
0 si x < 1 o y < 0
1/6 si (x, y) [1, 2) [0, 1)
2/6 si (x, y) [1, 2) [1, +)
F (x, y) = 5/12 si (x, y) [2, 3) [0, 1)
si (x, y) [2, 3) [1, +)
2/3
si (x, y) [3, +) [0, 1)
8/12
si (x, y) [3, +) [1, +)
1
El lector podra notar que resulta mas practico y sencillo tener la tabla de
cuanta conjunta. Esto tambien queda en evidencia si tratamos de hallar la dis-
tribucion marginal de X y de Y .
X X X X
lm F (x, y) = lm P (X = i, Y = j) = P (X = i, Y = j) = FX (x)
y+ y+
i:ix j:jy i:ix j=0,1
P
Por lo tanto j=0,1 P (X = i, Y = j) = P (X = i), es decir, sumando los
valores de la cuanta conjunta para todos los valores del recorrido de Y obtenemos
la cuanta de X. Es analogo para obtener la cuanta de Y , de donde tenemos:
P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 1/6 1/4 1/4 2/3
j=1 1/6 1/12 1/12 1/3
P (X = i) 1/3 1/3 1/3
/
El resultado que aqu obtuvimos para obtener las cuantas marginales es ge-
neralizado para cualquier vector aleatorio discreto con recorrido finito, ello se
deduce de las propiedades estudiadas de la funcion de distribucion, Teorema 35.
Luego, supongamos que queremos que primero salgan las dos rojas, luego una
azul y por ultimo tres verdes:
La probabilidad de obtenerlas en ese orden es p21 p12 p33 p04 ya que las extraccio-
nes se hacen con reposicion. Pero... de cuantas formas posibles podemos elegir
dos rojas una azul y tres verdes al extraer seis bolillas?, cualquiera de los ordenes
nos da un suceso disjunto pero con igual probabilidad, por ende la probabilidad
deseada es el producto C p21 p12 p33 p04 , donde C es la cantidad de ubicaciones
posibles.
6!
Por ultimo, P (X1 = 2, X2 = 1, X3 = 3, X4 = 0) = p2 p1 p3 p0
2! 1! 3! 0! 1 2 3 4
La generalizacion de este caso es inmediato.
Definicion 34
*
Decimos que un vector aleatorio X = (X1 , . . . , Xn ) tiene distribucion multinomial
de parametros N, p1 , . . . , pn si
N!
P (X1 = m1 , . . . , Xn = mn ) = pm mn
1 pn
1
m1 ! . . . mn !
donde m1 , . . . , mn N cumplen m1 + + mn = N y p1 + + pn = 1.
Ejercicio 6
Se tira un dardo sobre un blanco, el blanco tiene un crculo negro de radio 1 cm,
seguido de un anillo verde donde el radio del crculo negro-verde es 3 cm. Por
ultimo, un anillo de color rojo donde el radio del crculo negro-verde-rojo es 6
cm.
1. Hallar la probabilidad de darle a cada una de las zonas en una tirada, sa-
biendo que la probabilidad de darle a cada una de las zonas es proporcional
al area de la zona.
3. Se tira el dardo diez veces, hallar la probabilidad de darle al menos una vez
al negro y al menos dos veces al verde.
Z xn Z x1
F *(x1 , . . . , xn ) = f (t1 , . . . , tn ) dt1 . . . dtn (x1 , . . . , xn ) Rn
X
*
Aqu la funcion f es llamada densidad del vector aleatorio X o densidad
conjunta de las variables aleatorias (X1 , . . . , Xn ).
*
Observacion: Es importante notar que si X es un vector aleatorio abs. con-
tinuo y B es un boreliano de Rn , entonces:
Z
*
P (X B) = F *(x1 , . . . , xn ) dx1 . . . dxn
X
B
*
Por ejemplo, si X = (X, Y ) tiene funcion de densidad conjunta f * : R2 R
X
tal que
exy si (x, y) (0, +) (0, +)
f *(x, y) =
X 0 en otro caso
* Z Z 3 Z 1
P X (1, 1) (2, 3) = f *(x, y) dx dy = f *(x, y) dx dy
X X
(1,1)(2,3) 2 1
Z 3 Z 1
xy
= e dx dy = (1 e2 )(e2 e3 )
2 0
| {z }
(1e1 )ey
Z 1
1 dt1 . . . dtn si (x1 , . . . , xn ) B
f *(x1 , . . . , xn ) = B
X
0 si (x1 , . . . , xn ) 6 B
*
En particular, si B = [0, 1] [0, 1], tenemos que X U nif [0, 1] [0, 1], si su
*
Figura 4.1: Densidad X U nif [0, 1] [0, 1]
*
Figura 4.2: Funcion de distribucion de X U nif [0, 1] [0, 1]
*
Ejemplo 81 (Vector aleatorio Normal de parametros y )
*
Sea Rn un vector fila y una matriz n n definida positivaa) , no singular
y simetrica.
*
Decimos que el vector aleatorio X tiene distribucion Normal de parametros
* * *
y y lo anotamos X N ( , ), si su densidad es: f : Rn R tal que
* * * *
( x )1 ( x )t
* 1
f ( x) = p e 2
(2)n/2 det()
* 1 0
Para el caso particular: = (0, 0) y = , aqu verifica lo pedido
0 1
*
y decimos que X tiene distribucion normal bivariada (dos dimensiones) estandar,
su densidad es: f : R2 R tal que
x2 + y 2
1
f (x, y) = e 2
2
a) * * * t
es definida positiva si para todo vector no nulo x Rn tenemos que x x >0
*
Figura 4.3: Densidad de X Normal bivariado estandar
Demostracion: (Parcial)
Directo: Siendo X1 , . . . , Xn independiente, basta tomar los borelianos
Bi = (, xi ] para i = 1, . . . , n y aplicar la definicion de independencia de va-
riables aleatorias para obtener la tesis.
Recproco: Esta fuera de nuestro alcance, sin embargo recordemos que la -alge-
bra de Borel era generada por la familia {(, x] : x R}, de ah que trabajando
con la factorizacion para este tipo de borelianos podemos extendernos a la facto-
rizacion para cualquier boreliano.
X1 , . . . , Xn son independientes
P (X1 = x1,k , . . . , Xn = xn,k ) = P (X1 = x1,k ) P (Xn = xn,k ) x1,k , . . . , xn,k
X
FX1 ,...,Xn (x1 , . . . , xn ) = P (X1 = x1,k , . . . , Xn = xn,k ) =
| {z }
k tal que P (X1 =x1,k )P (Xn =xn,k )
x1,k x1 , . . . , xn,k xn
X X
P (X1 = x1,k ) P (Xn = xn,k ) = FX1 (x1 ) FXn (xn )
k:x1,k x1 k:xn,k xn
Ejemplo 82
Retomemos el ejemplo 78, aqu tenamos X e Y tal que su cuanta conjunta viene
dada por:
P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 1/6 1/4 1/4 2/3
j=1 1/6 1/12 1/12 1/3
P (X = i) 1/3 1/3 1/3
Ejemplo 83
Sean ahora X e Y tal que su cuanta conjunta viene dada por:
P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 2/9 2/9 2/9 2/3
j=1 1/9 1/9 1/9 1/3
P (X = i) 1/3 1/3 1/3
Z x1 Z xn
FX1 ,...,Xn (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn ) = fX1 (t1 ) dt1 fXn (tn ) dtn =
| {z } | {z }
FX1 (x1 ) FXn (xn )
Z x1 Z xn
fX1 (t1 ) fXn (tn ) dt1 . . . dtn
Recproco: Ahora la hipotesis es fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) fXn (xn )
para todo (x1 , . . . , xn ) Rn . Luego, para todo (x1 , . . . , xn ) Rn tenemos que
Z x1 Z xn
hip.
FX1 ,...,Xn (x1 , . . . , xn ) = fX1 ,...,Xn (t1 , . . . , tn ) dt1 . . . dtn =
Z x1 Z xn Z x1 Z xn
fX1 (t1 ) fXn (tn ) dt1 . . . dtn = fX1 (t1 ) dt1 fXn (tn ) dtn =
Ejemplo 84
Sea (X, Y ) un vector aleatorio con distribucion uniforme en [0, 1] [0, 1], recor-
demos que su densidad es: f : R2 R tal que
1 si (x, y) [0, 1] [0, 1]
f (x, y) =
0 si (x, y) 6 [0, 1] [0, 1]
T
n 1
P g1 (X1 ) B1 , . . . , gn (Xn ) Bn = P i=1 (gi Xi ) (Bi ) =
T T indep
n n
Xi1 gi1 (Bi )
P i=1 =P i=1 Xi C i =
| {z }
Ci B
P g1 (X1 ) B1 P gn (Xn ) Bn
Este resultado sera muy importante para algunos resultados que estudiaremos
en breve, a modo de ejemplo si X1 , . . . , Xn son variables aleatorias independientes,
entonces etX1 , . . . , etXn tambien lo son donde t es un real arbitrario.
X1 ++Xn
Definamos X = n
, entonces
X1 ++Xn t t
etX = et n = e n X1 e n Xn
t t indep t t
MX (t) = E(etX ) = E(e n X1 e n Xn ) = E(e n X1 ) E(e n X1 )
Estos comentarios aun no pueden ser justificados, simplemente los damos para
mostrar una aplicacion del Teorema 40 e introducirnos en las siguientes secciones:
Transformaciones de vectores aleatorios y Esperanza de vectores aleatorios.
x y , ex , 1/(x2 + y 2 + 1)
g(x, y) =
|{z} |{z} | {z }
g1 (x,y) g2 (x,y) g3 (x,y)
Al igual que para variables aleatorias, probemos que si aplicamos una funcion
medible a un vector aleatorio obtenemos tambien un vector aleatorio.
Proposicion 41
*
Sea X = (X1 , . . . , Xn ) un vector aleatorio sobre (, A) y sea g : Rn Rm una
funcion medible, entonces Y = g(X1 , . . . , Xn ) es un vector aleatorio en Rm sobre
el espacio (, A).
*
Por lo tanto Y = g(X ) es un vector aleatorio.
Ejemplo 85
Sea (X, Y ) U (0, 1) (0, 1), aqu tenemos que X e Y son independientes ambas
con distribucion uniforme en (0, 1). Definamos Z = X/Y y tratemos de hallar la
distribucion de Z.
Si z 0 entonces FZ (z) = P (Z z) = 0.
Si z > 0, FZ (z) = P (X/Y z) = P (X, Y ) Bz donde Bz es la region
determinada como sigue.
Si 0 < z < 1.
0 si z 0
F (x) = z/2 si 0 < z < 1
1 1/(2z)
si z 1
X
P (S = s) = P (X = xi )P (Y = s xi )
i
Z +
fS (s) = fX (t) fY (s t) dt
S S
Demostracion: i. Sean Rec(X) = i {x i } y Rec(Y ) = j {yi }, luego
S S
Rec(S) = i j {xi + yj } y por ende S es discreta.
S S disj.
P (S = s) = P (, S = s) = P ( i {X = xi }, S = s) = P ( i {X = xi , S = s}) =
P P
i P (X = xi , S = s) = i P (X = xi )P (S = s|X = xi ) =
P P indep.
i P (X = xi )P (X + Y = s|X = xi ) = i P (X = xi )P (Y = s xi |X = xi ) =
| {z }
xi +Y =s|X=xi
P
i P (X = xi )P (Y = s xi )
Z Z
FS (s) = P (X + Y s) = P ((X, Y ) Bs ) = fX,Y (u, v) dv du
| {z }
Bs fX (u)fY (v)
Z + Z su Z + Z su
FS (s) = fX (u)fY (v) dv du = fX (u) fY (v) dv du =
| {z }
c.v. v=tu
Z + Z s Z + Z s
fX (u) fY (t u) dt du = fX (u) fY (t u) dt du =
Z s Z + Z s
fX (u) fY (t u) du dt = f (t) dt
| {z }
f (t)
Observacion:
Ejemplo 86
Sean X e Y variables aleatorias independientes ambas con distribucion uniforme
en (0, 1). Hallemos la distribucion de S = X + Y .
0 si s 0
Rs
s
1 du = s si 0 < s < 1
Z
0
fS (s) = fX (u) du = R 1
s1
s1
1 du = 2 s si 1 s < 2
si s 2
0
Basta con hacer el grafico de fS para notar que esta distribucion recibe en
nombre de triangular, en este caso en el intervalo (0, 2). /
Z +
E(g(X1 , . . . , Xn )) = y dFg(X1 ,...,Xn )
Teorema 43
*
Sea X = (X1 , . . . , Xn ) un vector aleatorio con funcion de distribucion F * y sea
X
Z
E(g(X1 , . . . , Xn )) = g(x1 , . . . , xn ) dFX1 ,...,Xn
Rn
Donde la integral puede ser pensada como lo hicimos para variables aleatorias
con la diferencia de ser en Rn .
Para los casos particulares en que el vector (X1 , . . . , Xn ) sea discreto o abso-
lutamente continuo tenemos que:
caso discreto
S
Siendo Rec(X1 , . . . , Xn ) = k {(x1,k , . . . , xn,k )}
X
E g(X1 , . . . , Xn ) = g(x1,k , . . . , xn,k ) P (X1 = x1,k , . . . , Xn = xn,k )
k
Antes de pasar a ver algunos ejemplos veamos algunas propiedades que sim-
plifican mucho el trabajo al momento de calcular esperanzas.
Teorema 44
Sean X e Y variables aleatorias integrables, entonces E(X + Y ) = E(X) + E(Y ).
Demostracion: Veamos la prueba para los dos casos mas trabajados y tambien
en general.
S S
caso discreto: sea Rec(X, Y ) = i j {xi , yj }
XX
E(X + Y ) = (xi + yj ) P (X = xi , Y = yj )
j i
XX XX
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
j i j i
F ubini
XX XX
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
i j j i
X X X X
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
i j j
| {z } |i {z }
P (X=xi ) P (Y =yj )
= E(X) + E(Y )
Z + Z +
E(X + Y ) = (x + y)fX,Y (x, y) dx dy
Z + Z + Z + Z +
= x fX,Y (x, y) dx dy + y fX,Y (x, y) dx dy
Z + Z + Z + Z +
F ubini
= x fX,Y (x, y) dy dx + y fX,Y (x, y) dx dy
Z + Z + Z + Z +
= x fX,Y (x, y) dy dx + y fX,Y (x, y) dx dy
| {z } | {z }
fX (x) fY (y)
= E(X) + E(Y )
Caso general:
Z + Z + Z + Z + Z + Z +
(1)
E(X + Y ) = (x + y)dFX,Y = x dFX,Y + y dFX,Y
Z + Z +
T eo.43
E(g1 (X, Y )) = E(X) = g1 (x, y) dFX,Y y
| {z }
x
Z + Z +
T eo.43
E(g2 (X, Y )) = E(Y ) = g2 (x, y) dFX,Y
| {z }
y
Teorema 45
Sean X e Y variables aleatorias integrables e independientes, entonces
caso discreto
indep.
XX
E(X Y ) = xi yj P (X = xi , Y = yj ) =
| {z }
i j
P (X=xi )P (Y =yj )
X X
xi P (X = xi ) yj P (Y = yj ) = E(X)E(Y )
i j
Z + Z +
indep.
E(X Y ) = x y fX,Y (x, y) dx dy =
| {z }
fX (x)fY (y)
Z + Z +
yfY (y) xfX (x) dx dy = E(X)E(Y )
caso general
Z + Z + Z + Z +
indep.
E(X Y ) = x y dFX,y = x y dFX FY =
Z + Z + Z + Z +
x y dFX dFY = x dFX ydFY = E(X)E(Y )
Observacion:
Ejemplo 87
Sean X e Y v.a. tales que
P (X = i, Y = j) i = 1 i = 0 i = 1 P (Y = j)
j = 1 1/5 0 1/5 2/5
j=0 0 1/5 0 1/5
j=1 1/5 0 1/5 2/5
P (X = i) 2/5 1/5 2/5
Ejemplo 88
Sean X1 , . . . , Xn iid con distribucion Bernoulli de parametro p.
Como aun no hemos mencionado lo de iid, vale aclarar que significa indepen-
dientes e identicamente distribuidas, es decir, que las X1 , . . . , Xn son indepen-
dientes y todas con igual distribucion, en este caso Ber(p).
indep
E(etX ) = E(et(X1 +...+Xn ) ) = E(etX1 etXn ) = E(etX1 ) E(etXn )
n
M (t) M (t) = M (t) = (pet + q)n
Este resultado coincide evidentemente con el que obtuvimos antes pero ahora
evitamos el despliegue de calculos. /
Definicion 38
Sean X1 , . . . , Xn iid con distribucion N (0, 1), sea Y una v.a. aleatoria tal que:
Y = X12 + + Xn2
Comencemos por probar que Probar que X12 (1/2, 1/2). Para ello hallemos
la funcion de distribucion de X12 . Es claro que si t < 0 entonces FX12 (t) = 0 por
ser X12 0. Si t 0
X1 N (0,1)
FX12 (t) = P (X12 t) = P (|X1 | t) = P ( t X1 t) =
Z t
1 2
=
ex /2 dx
t 2
0 si t < 0
fX12 (t) =
e t/2 e t/2
F 0 2 (t) = 1 = 1 t1/2 et/2 si t 0
X 1 2 2 t 2 t 2
0
si t < 0
f (t) =
t1 et si t 0
()
Luego
n
t(X12 ++Xn2 ) tX12 tXn2 indep. tX12 tXn2 id
E(e ) = E(e e ) = E(e ) E(e ) = M (t)
1/2
1/2
Basta sustituir M (t) = 1/2t
, recordemos que Xi2 (1/2, 1/2),
para obtener que la generatriz de momentos de X12 + + Xn2 es
MX12 ++Xn2 : (1/2, 1/2) R tal que
n/2
1/2
MX12 ++Xn2 (t) =
1/2 t
2 2
df
V (X + Y ) = E (X + Y ) E(X + Y ) = E (X E(X)) + (Y E(Y ))
2 2 linealidad
E (X E(X)) + 2(X E(X))(Y E(Y )) + (Y E(Y )) =
2 2
E X E(X) + 2E X E(X) Y E(Y ) + E Y E(Y ) =
V (X) + V (Y ) + 2E X E(X) Y E(Y )
Definicion 39 (Covarianza)
Sean X e Y v.a. llamamos covarianza entre X e Y a
Cov(X, Y ) = E X E(X) Y E(Y )
V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
Proposicion 46
1. Cov(X, Y ) = E(XY ) E(X)E(Y )
Demostracion:
1.
Cov(X, Y ) = E X E(X) Y E(Y )
= E XY XE(Y ) E(X)Y + E(X)E(Y )
linealidad
= E(XY ) E(X)E(Y ) E(X)E(Y ) + E(X)E(Y )
= E(XY ) E(X)E(Y )
Ejercicio 7
Sean X e Y variables aleatorias normales. Mostrar que en este caso
Cov(X, Y ) = 0 si y solo si X e Y son independientes.
Proposicion 47
Sean X1 , . . . , Xn variables aleatorias independientes con varianzas finitas, enton-
ces
V (X1 + + Xn ) = V (X1 ) + + V (Xn )
Demostracion:
2
V (X1 + + Xn ) = E X1 + + Xn E(X1 + + Xn )
2
= E X1 E(X1 ) + + Xn E(Xn )
n
X 2 X
= E Xi E(Xi ) + E Xi E(Xi ) Xj E(Xj )
i=1 i,j:i<j | {z }
Cov(Xi ,Xj )=0
n
indep.
X
= V (Xi )
i=1
4.6. Ejercicios
* S S
1. Sea X = (X, Y ) un vector discreto con recorrido n {xn } m {ym }
P
a) Probar que P (X = xn ) = m P (X = xn , Y = ym ) xn Rec(X).
P
b) Probar que P (Y = ym ) = n P (X = xn , Y = ym ) ym Rec(Y ).
P (X = x, Y = y) x = 1 x = 0 x = 1
y = 1 1/16 3/16 1/16
y=0 3/16 0 3/16
y=1 1/16 3/16 1/16
~ = (X, Y ).
c) Hallar la funcion de distribucion de X
d ) Hallar P (X < 1, Y 0) y P (X = Y )
~
a) Hallar la cuanta del vector X.
4. Una urna contiene 3 bolas blancas, 7 negras y 2 rojas. Se extraen dos bolas
de la urna. Sea X el numero de bolas blancas extradas y sea Y el de bolas
negras.
~ = (X, Y ).
a) Hallar la cuanta de X
b) Calcular P (X < Y ).
*
5. Sea X = (X, Y ) un vector absolutamente continuo con densidad fX,Y .
a) Determinar c.
a) Son X e Y independientes?.
b) Hallar E(X + Y ).
~ = (X, Y ).
a) Probar que es una cuanta de un vector aleatorio X
14. Se tiran dos dados. Sea X1 el resultado del primer dado y sea X2 el resul-
tado del segundo.
Sean Y1 = mn{X1 , X2 } e Y2 = max{X1 , X2 }. Hallar la distribucion con-
junta de (Y1 , Y2 ).
16. Se escriben n cartas y sus respectivos sobres y se ensobran las cartas al azar
de modo que la probabilidad de cualquiera de las ubicaciones de las cartas
en los sobres es la misma. Cuantas cartas espera que queden correctamente
ensobradas.
20. (La aguja de Buffon). Se arroja al azar una aguja de longitud 2b sobre
un plano en el que se han trazado lineas paralelas que distan 2a (a > b).
n1 2
2
S 2n1
Convergencias
Supongamos que tiene una moneda no cargada y la tira al aire 100 veces,
cuantas veces saldra cara?.
Ahora bien, es claro que dentro de nuestro espacio de resultados posibles exis-
te la posibilidad de que en todas las tiradas se obtenga numero, mas aun, dicho
suceso tiene probabilidad no nula, por lo que la igualdad f = 1/2 no tiene por
que ser valida. Pero pensemos ahora que la moneda se tira mil veces o mejor aun,
un millon de veces, sin lugar a duda apostaramos a que la frecuencia debe pare-
cerse mucho a 1/2, de lo contrario sospecharamos que la moneda esta cargada.
Aqu tenemos que la i-esima tirada de la moneda es representada por una v.a.
Xi Ber(p) con p = 1/2 y que ademas todas las tiradas son independientes, por
lo que tenemos X1 , X2 , . . . , Xn , . . . iid con distribucion Ber(p).
X 1 + + Xn
fn =
n
Aqu surgen algunas preguntas de las cuales la primera sera: en que sentido
es tal convergencia?
Por otro lado, tambien podramos formular la respuesta en otra posible di-
reccion. Tomemos los tal que lmn+ fn () = p, es deseable aqu que el
suceso formado por estos sucesos elementales tenga probabilidad uno, es decir:
P { : lm fn () = p} = 1
n+
P
En tal caso anotamos Xn X.
Antes de ver ejemplos veamos algunos resultados que nos ayudaran a probar
la convergencia en probabilidad.
E g(X) = E g(X)I[a,+) (X) + g(X)I(,a) (X)
= E g(X)I[a,+) (X) + E g(X)I(,a) (X)
| {z }
0
E g(X)I[a,+) (X) E g(a)I[a,+) (X)
| {z }
g(a)I[a,+) (X)
= g(a)E I[a,+) (X) = g(a)P (X a)
V ar(X)
P |X E(X)|
2
2
g(|X E(X)|)
E X E(X) V ar(X)
P |X E(X)| = 2
=
g() 2
P
y por ende Xn X.
Ejemplo 90
Sea X1 , . . . , Xn , . . . una sucesion de variables aleatorias independientes con dis-
tribucion Ber(p), probemos, como lo visto en el ejemplo introductorio, que
P
X n = (X1 + + Xn )/n p.
X 1 + + Xn 1
E(X) = E = E(X1 ) + + E(Xn ) = p
n n
Luego, siendo V (X) = p q
2
X1 + + Xn indep. 1 pq
E (X n p) = V (X n ) = V = V (X 1 )+ +V (X n ) =
n n2 n
pq
Ahora, como E (X n p)2 = 0,
n n+
el criterio de convergencia en pro-
P
babilidad por la convergencia en media cuadratica afirma que X n p. /
Chebishev V (Xn )
P (|Xn | ) 0
2 n+
P : lm Xn () = X() = 1
n+
c.s.
En tal caso anotamos Xn X.
lm Xn () = X() si y solo si
n+
\ [ \
{ : |Xn () X()| < }
>0 mN nm
\ [ \
P {|Xn X| < } = 1
>0 mN nm
[ \ [
P {|Xn X| } = 0
>0 mN nm
Por ultimo, es tambien equivalente que para todo > 0 se cumpla |Xn X| <
a que para todo l N se cumpla |Xn X| < 1/l. Evidentemente la primer
condicion implica a la segunda, supongamos que se cumple la segunda pero no
la primera, es decir, existe > 0 tal que |Xn X| , tomando l > 1/ el
cual existe por la propiedad de Arqumedes, llegaramos a que no se cumple la
segunda condicion en absurdo con nuestra hipotesis.
En resumen:
c.s.
Xn X
\ [ \
P {|Xn X| < 1/l} = 1
mN nm
lN
[ \ [
P {|Xn X| 1/l} = 0
lN mN nm
Ejemplo 91
Sea (Xn ) una sucesion de v.a. iid con distribucion uniforme en el intervalo (0, 1).
c.s.
Definamos n = mn{X1 , . . . , Xn }, y probemos que n 0.
\ X
P Em = lm P (Em ) lm P (n 1/l)
m+ m+
mN nm
P
De donde tenemos que la serie nm P (n 1/l) es geometrica con razon en
(0, 1) y por ende es convergente, del criterio de Cauchy para series tenemos que
P
que la cola de la serie tiende a cero, es decir lmm+ nm P (n 1/l) = 0
Por ultimo:
[ \ [ X X
0P {n 1/l} lm P (n 1/l) = 0
m+
lN mN nm lN nm
| {z }
=0
c.s.
y por ende n 0. /
Veamos ahora que la convergencia casi segura es mas fuerte que la conver-
gencia en probabilidad.
P P
y por ende Xm X, es decir Xn X.
X1 () = I(0,1) ()
X2 () = I(0,1/2) () X3 () = I(1/2,1) ()
X4 () = I(0,1/4) () X5 () = I(1/4,1/2) () X6 () = I(1/2,3/4) () X7 () = I(3/4,1) ()
..
.
Rec(Xi )={0,1}
0 P (Xi ) P (Xi 1/i) = P (Xi = 1) = 1/2n 0
i+
P
y tenemos que Xn 0.
Sin embargo, para cualquier (0, 1), la sucesion Xn () nN no es conver-
gente por construccion y por ende
P { (0, 1) : lm Xn () = 0} =0
n+
| {z }
Antes de comenzar con esta seccion es conveniente tener presente que cuando
hablamos de Ley debil entendemos una convergencia en probabilidad y cuando
hablamos de Ley fuerte entendemos convergencia casi segura, estos nombres son
debidos al Teorema 49 y al Ejemplo 92.
Chebishev 2
P |X n | 0
n2 n+
S
Probemos entonces que lmm+ P nm |X n | 1/l = 0.
P 4
n
[ T.48 X E(|X |4 ) (1) X E i=1 (Xi )
n
P {|X n | 1/l} 4
=
nm nm
1/l nm
n4 1/l4
P 4
n
Calculemos ahora E i=1 (Xi ) ,
n
X 4 n
X
E (Xi ) =E (Xi )(Xj )(Xk )(Xl ) =
i=1 i,j,k,l=1
n
indep.
X
E (Xi )(Xj )(Xk )(Xl ) =
i,j,k,l=1
n
X X
E (Xi )4 + 3 E (Xi )2 E (Xj )2
i=1 i,j:1,...,n
i6=j
n
X 4
E (Xi ) = nE (X1 )4 + 3n(n 1)E 2 (X1 )2
i=1
P 4
n
[ XE i=1 (Xi )
P {|X n | 1/l} =
nm nm
n4 1/l4
X nE (X1 )4 n(n 1)E 2 (X1 )2 (2)
+3 0
nm
n4 1/l4 4
n 1/l 4 m+
donde el lmite en (2) es valido por ser la cola de una serie convergente
Ejemplo 93
En una fabrica se produce un determinado componente electronico, cuya duracion
puede pensarse exponencial. El fabricante esta tratando de estimar el tiempo
medio de duracion de cada componente, como le proporcionara tal estimacion?.
T1 + + Tn P 1 T1 + + Tn c.s. 1
y tambien aqu
n n
nes. La Ley de los Grandes Numeros es la justificacion para esa idea intuitiva, ya
que si X1 , . . . , Xn son iid con esperanza y varianza finita, entonces
X1 + + Xn P
E(X1 )
n
Definicion 42
Sean X1 , . . . , Xn , . . . variables aleatorias con funciones de distribucion
FX1 , . . . , FXn , . . . y sea X una variable aleatoria con funcion de distribucion FX .
Observacion:
P
y por el Teorema 49 tenemos tambien que Xn 0.
Ahora bien,
cada Xn es una v.a. degenerada en 1/n y por ende
0 si x < 1/n
FXn (x) = .
1 si x 1/n
Por ultimo,
si x < 0 FXn (x) = 0 = FX (x)
si x > 0 FXn (x) 1 = FX (x)
n+
L
Segun nuestra definicion tenemos que Xn X pero
FXn (0) = 0 6 FX (0) = 1.
n+
Aqu vemos que FXn (x) 6 FX (x) para todo x R, sin embargo la con-
n+
vergencia es valida en casi todo punto.
P L
Teorema 52 (Si Xn X Xn X)
P L
Sean X, X1 , . . . , Xn , . . . variables aleatorias tal que Xn X, entonces Xn X.
P
Tomando lmite con n + y usando que Xn X tenemos
FX (x 1/k) lm inf FXn (x) lm sup FXn (x) FX (x + 1/k). Tomando ahora
n+ n+
lmite con k +, por ser x un punto de continuidad de FX tenemos
FX (x) lm inf n+ FXn (x) lm supn+ FXn (x) FX (x) de donde con-
cluimos que lmn+ FXn (x) = FX (x).
L
En resumen Xn X.
Ejemplo 94
Sean X, X1 , . . . , Xn , . . . iid con distribucion normal (0, 1/ 2). Evidentemente
L
Xn X pues la funcion de distribucion de Xn no vara con n.
Por otro lado Xn X N (0, 1) por ser una combinacion lineal de normales
independientes (segun el Ejercicio 17b del captulo anterior) y
c.s. P L
Xn X Xn X Xn X
6 6
Para llegar a este resultado se necesita un largo trabajo pasando por los
Teoremas de Helly y Levy, en el Libro Teora de Probabilidades de Petrov -
Mordecki puede leerse una demostracion de estos resultados en un caso aun mejor,
con la funcion caracterstica, la cual como vimos existe para cualquier variable
aleatoria.
L
Xn X MXn (t) M (t) t (t0 , t0 )
n+
Ejemplo 95
Sean X1 , . . . , Xn , . . . tales que Xn Bin(n, 1/n), recordemos que la funcion
generatriz de momentos es MXn : R R tal que MXn (t) = (pet + q)n donde
p = 1/n y q = 1 1/n. Por lo tanto, para todo t R
1 1 n 1 n t
MXn (t) = et + 1 = 1 + et 1 ee 1
n n n n+
x1 ++xn
xn = n
para cada n. Que comportamiento esperamos que lleve xn al
variar n?.
Resulta razonable pensar que uno se encontrara con estudiantes altos, los que
haran aumentar mucho a xn y con estudiantes bajos, lo que hara disminuir a
xn , pero en general tendremos pocos estudiantes con alturas extremas y muchos
estudiantes con altura media lo que dara lugar a pensar en un grafico del estilo
de la campana de Gauss.
Xn L
Z donde Z N (0, 1)
/ n
n
t t igual t
= MX1
n
MXn
n
= M
n
dist.
t2 t2
M (t) = M (0) + M 0 (0) t + M 00 (t ) = 1 + M 00 (t )
| {z } | {z } 2 2
1 =0
donde 0 < |t | < |t| (recordemos que las derivadas de M son continuas en
cero).
=0
z}|{
Luego, siendo M 00 (0) = V (X) + 2 = 2 tenemos
2
2tt2 h 00 2
i
M (t) = 1 + + M (t )
2 2| {z }
e(t) 0
t0
t2
lm M X
n (t) = e 2
n+ / n
Xn L
Por el criterio de convergencia en Ley tenemos que N (0, 1).
/ n
Por ultimo, si 6= 0 basta considerar Yn = Xn . Es inmediato mostrar que
Xn Yn L
= N (0, 1)
/ n / n
Observacion:
X1 ++Xn
1. Notemos que Xn = n
y por la linealidad de la esperanza tenemos
2
que E(Xn ) = , utilizando la independencia, tenemos que V (Xn ) = n
, por
n E(Xn ) L
lo tanto el resultado anterior nos muestra que: X Z.
V (Xn )
3. En este curso veremos solo esta version del Teorema Central del Lmite,
sin embargo las hipotesis pueden debilitarse mucho y seguir manteniendo
la tesis (por ejemplo el Teorema de Lindeberg).
Queremos tomar una muestra (pues es muy costoso encuestar a todos los Mon-
tevideanos), de modo que con una confianza del 95 %, la proporcion de personas
que estan de acuerdo en la muestra, diste menos de de la verdadera proporcion
p.
P X n p < = P < Xn p < =
n n Xn p
= P < p < n =
p(1p) p(1 p) p(1p)
| {z }
L
ZN (0,1)
= n n = 2 n 1 = 0,95
p(1p) p(1p) p(1p)
1,962 0,9604
n= =
42 2
5.6. Ejercicios
P
1. Probar que si E(Xn ) y V (Xn ) 0 entonces Xn .
P P P
2. a) Probar que si Xn 0 e Yn 0 entonces Xn + Yn 0.
P
b) Probar que si Xn X y (an ) es una sucesion reales tales que an a
entonces:
c.s.
1) (an a)X 0.
P
2) an (Xn X) 0.
Sugerencia: si a 6= 0 usar que |an | > |a|/2 > 0 para n > n0 ; si
a = 0 usar que |an (Xn X)| |an | |Xn X| para
(0, 1) y n > n0 .
P
3) an Xn aX.
P P P
c) Probar que si Xn X e Yn Y entonces Xn + Yn X + Y .
P
3. a) Probar que si Xn a y g es una funcion continua en a entonces
P
g(Xn ) g(a).
P
b) Probar que si Xn X y g es una funcion continua entonces
P
g(Xn ) g(X).
P
6. Sean X1 , X2 , . . . v.a. iid con distribucion U [0, 1]. Pruebe que nXn 0.
7. Sean X1 , X2 , . . . v.a. iid con distribucion U (0, 1) y sea Yn = n
X1 Xn la
media geometrica de las X1 , . . . , Xn .
a) La desigualdad de Chebishev.
12. Se lanza un dado no cargado 500 veces. Hallar un valor aproximado para
la probabilidad de que la suma de puntos obtenidos sea mayor que 1800.
L L
13. Suponga que Xn N (0, 1), Yn N (0, 1) y para todo n natural Xn es
L
independiente de Yn . Pruebe que Xn + Yn N (0, 2) (suponga que Xn e
Yn tienen generatriz de momentos).
L
14. Usando la funcion generatriz de momentos probar que si Xn N (0, 1)
y (an ) es una sucesion de numeros reales tal que an a, entonces
L
Xn + an N (a, 1).
L
15. Sean X1 , X2 , . . . v.a. definidas sobre (, A, P ), probar que si Xn c en-
P
tonces Xn c donde c es un real arbitrario.
P P
a) mn 0 y Mn 1.
L L
b) Un W y Vn W donde W exp(1).
17. Sean X1 , X2 , . . . v.a. iid, tales que P (Xn = 1) = 1/2 = P (Xn = 1).
n
X 1 L
Probar que Yn = k
Xk U [1, 1].
i=1
2
L P
18. Sean X1 , X2 , . . . e Y1 , Y2 , . . . v.a. tales que Xn X e Yn c. Probar que
L
a) Xn + Yn X + c.
L
b) Yn Xn c X.