Sie sind auf Seite 1von 34

Escuela de Matematica

1era. Escuela de Matem


atica Pura y Aplicada
Guatemala 2012.

Curso 1
Introducci
on a Cadenas de Markov1
Antonio Murillo Salas
Departamento de Matematicas
Universidad de Guanajuato.
Del 19 al 24 de noviembre de 2012.

1 Versi
on

preliminar.

Indice general
1. Introducci
on a la teora de probabiliadad
1.1. Espacio muestral y eventos . . . . . . . . . . . . .
1.2. Medidas de probabilidad . . . . . . . . . . . . . .
1.3. -algebra de Borel en R . . . . . . . . . . . . . .
1.4. Independencia y probabilidad condicional . . . . .
1.5. Variables aleatorias y funciones de distribucion . .
1.6. Funciones de distribucion . . . . . . . . . . . . . .
1.7. Independencia de variables aleatorias . . . . . . .
1.8. Algunos ejemplos de variables aleatorias conocidas
1.9. Esperanza de variables aleatorias . . . . . . . . .
1.10. Suma de variables aleatorias . . . . . . . . . . . .
1.11. Ejercicios . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

3
3
4
7
8
11
14
16
21
24
27
30

Introducci
on

Captulo 1
Introducci
on a la teora de probabiliadad
El objetivo de la Teora de Probabilidad es estudiar o modelar, por medio de la herramienta
matematica, el comportamiento de fenomenos o experimentos aleatorios. Un experimento es llamado aleatorio cuando no se puede asegurar el resuldato, es decir, intrnsecamente existe cierta
incertidumbre sobre el resultado.
Para llevar acabo tal madelacion probabilista se requieren de tres conceptos fundamentales. A
saber, espacio muestral, evento y medida de probabilidad. Mas un cuarto, basado el los anteriores,
llamado variable aleatoria, el cual juega un papel primordial en el estudio de experimentos aleatorios. El objetivo del presente captulo es definir dichos conceptos, los cuales formaran el marco
teorico de nuestro estudio.

1.1.

Espacio muestral y eventos

Definici
on 1.1.1 El conjunto de todos los resultados posibles de un experimento aleatorio es llamado espacio muestral, y sera denotado por .
Ejemplos.
(1) El experimento de lanzar una moneda: = {a, s}, donde a denota aguila y s denota sello.
(2) El experimento de lanzar un dado: = {1, 2, 3, 4, 5, 6}.
(3) El experimento de observar el tiempo de vida de un aparado electrico: = [0, ).
(4) El experimento de lanzar dos monedas consecutivamente:
= {(a, a), (a, s), (s, a), (s, s)}.
(5) Experimento de contar el n
umero de autos que cruzan en determinado intervalo de tiempo,
digamos por da, por la caseta de peaje:
= {0, 1, 2, }.
Definici
on 1.1.2 Un evento es una caracterstica de interes en un experimento aleatorio. Normalmente los denotaremos por las letras A, B, C, etc.
3

(1.1) El experimento de lanzar una moneda. El evento la moneda cae aguila: A = {a}.
(2.1) El experimento de larzar un dado. Nos puede interesar A =la cara muestra un n
umero
impar o B=la cara muestra un numero divisible por 3. Por lo tanto, A = {1, 3, 5} y
B = {3, 6}.
(3.1) El experimento de observar el tiempo de vida de un aparato electrico: A =dura mas de un
a
no pero menos de 2, B =al menos un a
no. Entonces, A = {(1, 2)} y B = {[1, )}.
(4.1) El experimento de lanzar dos monedas consecutivamente. Puede ser de interes, A =al menos
una cara en los dos lanzamientos o B =dos caras. Luego, A = {(a, a), (a, s), (s, a)} y
B = {(a, a)}.
(5.1) Experimento de contar el n
umero de autos que cruzan por la caseta de peaje en un da.
Supongamos que nos interesa, A =al menos pasaron 105 carros, B =pasaron menos de
150 carros. Entonces, A = {105, 106, } y B = {0, 1, , 148, 149}.
Nos interesa medir o calcular la probabilidad de ciertos conjuntos. Los eventos son precisamente a los conjutos que podemos calcular la probabilidad de ocurrencia. Nos gustara que la
operaciones elementales entre eventos tales como complemento, union, interseccion tambien fuera
un evento. Denotaremos por F a la clase de todos los eventos.

1.2.

Medidas de probabilidad

En la Seccion 1.1 definimos dos de los tres elementos principales en la Teora de Probabilidad.
El proposito de la presente seccion es introducir el concepto de medida de probabilidad, con lo
cual estaremos en posicion de inicar nuestro estudio de modelacion de experimentos aleatorios.
Para lograr lo anterior, primero vamos a definir de manera rigurosa las propiedades que debe
cumplir la clase de todos los eventos. La clase F P(), donde P() denota la clase de todos los
subconjutos de tambien conocido como conjunto potencia. En cursos mas avanzados, donde se
hace uso de la Teora de la Medida, se puede ver que F debe ser una -algebra.
Definici
on 1.2.1 Sea F una familia no vacia de subconjuntos de . La familia F es llamada
-algebra si satisface las siguientes propiedades:
(i) Dado A F se cumple Ac F, donde Ac denota el complemento de A en .
S
(ii) Sea (An )
on de conjuntos en F. Entonces,
n=1 cualquier sucesi
n=1 An F.
(, F) es llamado espacio medible.
Algunas propiedades de -
algebras
1. F, y por lo tanto, F.
2. Sea F una -algebra y (An )
on de conjuntos en F. Entonces,
n=1 una colecci

n=1

An F.

3. Todo cojunto tiene dos -algebras triviales: las mas peque


na F0 = {, }, y las mas grande
F1 = P(). Ademas, si F es cualquier otra -algebra,
F0 F F1 .
4. Sean A, B F, entonces A\B F. En efecto, basta notar que A\B = A B c .
Ahora s, ya tenemos los elementos necesarios para definir el concepto de medida de probabilidad.
Definici
on 1.2.2 (Axiomas de la Teora de Probabilidad1 ) Una medida de probabilidad sobre
el espacio medible (, F), donde es un conjunto y F una -algebra sobre , es una funci
on de
conjuntos P tal que:
(i) 0 P(A) 1, para todo A F.
(ii) P() = 1.
on de conjuntos disjuntos por pares (Ai Aj = , i 6= j),
(iii) Si (An )
n=0 F es una sucesi
entonces
!

X
[
P (An ) .
(1.1)
An =
P
n=1

n=1

A la terna (, F, P) le llamaremos espacio de probabilidad.


Propiedades de la medida de probabilidad
Las siguientes propiedades son consecuencia de la definicion de medida de probabilidad.
1. Si A F, entonces P(Ac ) = 1 P(A). En particular, P() = 0.
2. Considere los eventos A y B. Entonces,
P (A\B) = P (A) P (A B) .
En efecto, notemos que A = (A B) (A B c ). Entonces,
P(A) = P(A B) + P(A B c ),
luego,
P(A\B) = P(A) P(A B).
Por lo tanto, si A B entonces, P (A) P (B).
3. Sean A y B dos eventos cualquiera, entonces
P (A B) = P (A) + P (B) P (A B) .
Para demostrar el hecho anterior basta notar que A B = A (B\A).
1

Andrey N. Kolmogorov (1903-1987) fue quien fundamento las bases de la Teora Moderna de Probabilidad.

4. Supongamos que A, B, C F. Entonces,


P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C). (1.2)
Proposici
on 1.2.3 Sea (An ) una sucesion de eventos tales que An An+1 , para todo n. Entonces,
P (
m P (An ) .
n=1 An ) = l

(1.3)

Demostraci
on: Notemos que, para cada k N,
Ak = A1 (A2 \A1 ) (A3 \A2 ) (Ak \Ak1 ),
y
n=1 An = A1
n=1 (An+1 \An ).
Por lo tanto, dado que {A1 , A2 \A1 , A3 \A2 , } es una sucesion de eventos disjuntos se concluye
que
P (
n=1 An ) = P(A1 ) +

P(An+1 \An )

n=1

= P(A1 ) +

[P(An+1 ) P(An )]

n=1

"
=
=

lm P(A1 ) +

n1
X

#
(P(Ak+1 ) P(Ak ))

k=1

lm P(An ),

para obtener la u
ltima iguadad usamos el hecho que la suma resulta ser una serie telescopica. 

Proposici
on 1.2.4 i)(Desigualdad de Boole) Para cada n N, sean A1 , , An eventos.
Entonces,
!
n
n
[
X
P
Ak
P (Ak ) .
(1.4)
k=1

k=1

Demostraci
on: Vamos a proceder por induccion sobre n. El resultado es valido para n = 2 ya
que,
P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) P (A1 ) + P (A2 ) .
Supongamos que se cumple para n. Entonces,
n
P(n+1
i=1 Ai ) = P(i=1 Ai An+1 )
P(ni=1 Ai ) + P(An+1 )
n+1
X

P(Ai ),
i=1

la u
ltima desigualdad es por hipotesis de induccion.
ii)(-Subaditividad) Sean (An )
on eventos. Entonces,
n=1 una sucesi
!

[
X
P
An
P (An ) .
n=1

(1.5)

n=1

Demostraci
on:

1.3.

-
algebra de Borel en R

El siguiente resuldato nos dice que, dada cualquier coleccion de subconjuntos de , existe una
mnima -algebra que la contiene.
Teorema 1.3.1 (Mnima -
algebra generada) Sea un conjunto y T una familia de subcojuntos de . Entonces, existe una -algebra (T ) tal que (i) T (T ) y (ii) si F es otra -
algebra
sobre tal que T F, entonces (T ) F. Se dice que (T ) es la -algebra sobre generada por
T.
Demostraci
on: Sea R la familia de todas las -algebras sobre que contienen a T . Entonces,
R = {F : F es -algebra sobre y T F}.
Es claro que R es no vacia, ya que P() R. Definamos
R := FR F.
Demostraremos que R es una -algebra. En efecto,
(i) R , ya que F, para toda F R.
(ii) Sea A R . Entonces, A F, para toda F R. Por lo tanto, Ac F, para toda F R.
Luego, Ac R .

(iii) Sea (An ) una sucesion de conjuntos en R . Mostraremos que


n=1 An R . Sabemos que
para cada F R, An F, para todo n. Ahora bien, dado que F es -algebra, se tiene que

n=1 An F para toda F R. Por lo tanto, n=1 An R .

En consecuencia, R es -algebra. Para concluir la prueba basta notar que si F es una -algebra
tal que T F, entonces F R. Lo cual implica R F, i.e, (T ) = R

La siguiente definicion introduce una -algebra sobre R, la cual sera de mucha utilidad en el
resto del curso.
Definici
on 1.3.2 La -algebra de Borel2 sobre R, la cual denotamos por B(R), es la -
algebra
generada por la clase de conjuntos T := {(, x] : x R}. Todo conjuto en B := B(R) ser
a llamado conjunto de Borel o Boreliano.
2

Emile Borel 1871-1956, matem


atico y politico frances.

Observaci
on 1.3.3 (-algebra de Borel en Rd ) Si consideramos la clase de conjuntos
= {I := (, x1 ] (, xd ] : x1 , , xd R},
entonces la -algebra generada por es llamada -algebra de Borel en Rd .
Algunas propiedades de los Borelianos
1. Todo intervalo (a, b] esta en B.
Demostraci
on: Basta notar que,
(a, b] = (, b]\(, a].
2. Dado x R, {x} B.
Demostraci
on: Notemos que,
{x} =
n=1 (x

1
, x].
n

Luego, el resultado se sigue usando que para cada n, (x n1 , x] B.

3. (a, b), [a, b), [a, b] B.


4. Todo conjunto abierto en R es un Boreliano. Por lo tanto, por la propiedad de -algebra,
todo conjunto cerrado es un Boreliano.
Demostraci
on: Sea A R un conjunto abierto. Para cada x A existe un intervalo
(ax , bx ) A con extremos racionales y tal que x (ax , bx ). Por lo tanto, A puede escribirse
como la union contable conjuntos de Borel (ax , bx ), es decir,
A = xA (ax , bx ).
En consecuencia, A B.

1.4.

Independencia y probabilidad condicional

El concepto de probabilidad condicional es de suma importancia en la teora de probabiliadad


dado que, en muchos casos de modelacion se conoce informacion apriori sobre el fenomeno en
cuestion y un modo de aprovechar dicha informacion es por medio de la probabiliadad condicional. Veamos un ejemplo para clarificar lo anterior.

Ejemplo 1.4.1 Supongamos que tenemos una baraja de 52 cartas. Sea A el evento de que primera
carta sea un as. Entonces,
4
1
P(A) =
= .
52
13
Supongamos ahora que nos damos cuenta que la u
ltima carta es el as de espadas, y denotemos
por B tal evento. Cual es la probababilidad de que la primera carta sea un as? Hay 51 cartas
para seleccionar, de las cuales 3 son favorables para nuestro evento de interes. Por lo tanto, la
probabiliadad que buscamos es 3/51.
El ejemplo anterior nos motiva a introducir la siguiente
Definici
on 1.4.2 Sean A y B dos eventos tales que P(B) > 0. La probabilidad condicional del
evento A dado B se define como
P (A B)
.
(1.6)
P (A|B) =
P (B)
Observaci
on 1.4.3 Cuando P(B) = 0 la probabilidad condicional P(A|B) no se define como
antes.
Usaremos ahora la definicion de probabilidad condicional en el ejemplo anterior. Nos interesa
encontrar
1 3
3
P(A B)
52 51
= 1 = .
P(A|B) =
P(B)
51
52
Intuitivamente, detras de P(A|B) esta que la ocurrencia del evento B nos proporciona informacion sobre la ocurrencia del evento A. Por lo tanto, si deseamos decir que A y B son independientes
entonces, la ocurrencia del evento B no debe influir en la ocurrencia del evento A. Mas formalmente,
los eventos A y B son llamamdos independientes si
P(A|B) =

P(A B)
= P(A),
P(B)

en otras palabras,
P(A B) = P(A)P(B).
Vamos a introducir la definicion mas general de independencia entre eventos.
Definici
on 1.4.4 Una coleccion de eventos (Ai )iI es una coleccion de eventos independientes si
para todo subconjuto finito J I se cumple
Y
P(iJ Ai ) =
P(Ai ).
iJ

Es importante notar que la coleccion de eventos puede ser finita o infinita. Ademas, si (Ai )iI son
independientes entonces son independientes dos a dos. Sin embargo, la recproca no es cierta como
lo muestra el siguiente
Ejemplo 1.4.5 Sea = {1, 2, 3, 4, } y P la medida uniforme sobre . Considere A = {1, 2}, B =
{1, 3} y C = {3, 2}. Entonces, A, B y C son independientes dos a dos pero no son independientes.

Ejemplo 1.4.6 Una planta obtiene dos genes (los cuales determinan el color de las flores) de
manera independiente, cada uno proviene de una planta progenitora. Si los genes son identicos,
entonces las flores adquieren el color correspondiente. Si los genes son distintos, entonces las
flores tienes los dos colores. Los genes de los colores rosa (r), violeta (V) y rojo (R) ocurren en la
poblacion con proporciones a : b : c, de modo que a + b + c = 1. Supongamos que selecionamos una
planta al azar; sea A el evento que sus flores sean al menos parcialmente rosas, y sea B el evento
de que sus flores tengan dos colores.
a) Encuentre P(A) y P(B).
b) Demuestre que A y B son independientes si a = 2/3 y b = c = 1/6.
Soluci
on: a) Primero notamos que
A = rr rV V r rR Rr.
Luego,
P(rr) = P(r)P(r) = a2 ,
dado que el color rosa ocurre con probabilidad a. Por otro lado,
P(rR) = P(r)P(R) = ac = P(Rr),
y
P(rV ) = ab = P(V r).
Por lo tanto,
P(A) = a2 + 2(ac + ab)
= a2 + 2a(1 a)
= 1 (1 a)2 .
De manera analoga se obtiene que
P(B) = 2(ab + bc + ca).
b) Tarea.
Los siguientes resultados son muy u
tiles para calcular probabilidades de eventos cuando conocemos
ciertas probabilidades condicionales.
Teorema 1.4.7 ( Ley de probabilidad total)
(i) Sean A y B dos eventos tales que 0 < P(B) < 1. Entonces,
P(A) = P(A|B)P(B) + P(A|B c )P(B c ).
ii) Mas generalmente, para cualquier particion (Bn )n ( N) de , tal que P(Bi ) > 0 para todo
i , se cumple
X
P(A) =
P(A|Bi )P(Bi ).
i

10

Teorema 1.4.8 (de Bayes) Sea A ni=1 Bi , tales que Bi Bj = para i 6= j y P(Bi ) > 0,
entonces
P(A|Bj )P(Bj )
, P(A) > 0.
P(Bj |A) = P
i P(A|Bi )P(Bi )
Ejemplo 1.4.9 (Una aplicacion del Teorema de Bayes) Supongamos que tenemos una prueba que
detecta cuando una persona tiene cierta enfermedad. Si la prueba resulta positiva se dice que la
persona tiene la enfermedad. Si el resultado es negativo se interpreta como que no se detecta la
enfermedad.
Sea A1 :=la persona tiene no tiene la enfermedad y A2 :=la persona tiene la enfermedad.
Ademas, sea T+ :=la prueba da positivo y T =la prueba da negativo.
Supongamos que sabemos que P(A1 ) = 0.99 y P(A2 ) = 0.01. Por otro lado, supongamos adem
as
que
P(T+ |A1 ) = 0.01 y P(T+ |A2 ) = 0.99.
Cual es la probabilidad de que dado que la prueba detecta la enfermedad el paciente efectivamente tiene la enfermedad? Por el Teorema de Bayes tenemos que,
P(A2 |T+ ) =

P(A2 )P(T+ |A2 )


= 0.5.
P(A1 )P(A1 |T+ ) + P(A2 )P(T+ |A2 )

y
P(A1 |T+ ) = 1 P(A2 |T+ ) = 0.5.
Por lo tanto, la prueba no es efectiva para detectar si una persona esta o no enferma. Las cosas
cambian si se tuviera
P(T+ |A1 ) = 0.001 y P(T+ |A2 ) = 0.999,
en tal caso se tiene que P(A2 |T+ ) = 0.91, lo cual es mas rozonable para una prueba que se supone
detecta alguna enfermedad.

1.5.

Variables aleatorias y funciones de distribuci


on

Cuando se realiza alg


un experimento generalmente se esta interesado en funciones del resultado del experimento mas que el experimento mismo. Tales cantidades de interes son funciones
real-valuadas definidas en el espacio muestral. A dichas funciones aleatorias se les llama variables
aleatorias.
Supongamos que el experimento consiste en lanzar dos dados a la vez, y nos interesa la suma
de los n
umeros en la cara superior de los dados. En este caso, el espacio muestral esta dado por
= {(a, b) : a, b = 1, , 6}. Por lo tanto, dado que solo nos interesa las suma de las caras, para
nosotros sera lo mismo {(5, 1), (1, 5), (4, 2), (2, 4), (3, 3)}. De manera analoga, {(5, 5), (4, 6), (6, 4)}
nos dara el mismo resultado.
Definici
on 1.5.1 Dado un espacio de probabilidad (, F, P) una variable aleatoria (v.a.), denotada
por X, es una funcion X : R tal que, para todo x R
{X x} := { : X() x} F.

11

(1.7)

Observaci
on 1.5.2 (i) La definicion anterior es equivalente a la condicion
X 1 (I) {X I} := { : X() I} F,
donde I es cualquier intervalo en R (o Rd ). Mas generalmente, X 1 (A) F para todo A B(R),
donde B(R) denota la -algebra de Borel en R.
(ii) Decimos que X es un vector aleatorio si X : Rd es tal que
X 1 (A) F, para todo A B(Rd ),
donde B(Rd ) es la -algebra de Borel en Rd . En particular, A se puede restringir a la clase
presentada en la Observacion 1.3.3.
Veamos algunos ejemplos de v.a.
1. Sea c una constante en R, defina X() = c para todo , entonces X es v.a., y es llamada
v.a. constante. Para ver que X es v.a. basta notar que
(
, si x < c,
{X x} =
, si x c.
2. Sea A un evento, entonces
(
1, A,
X() =
0, en otro caso,
es v.a. aleatoria. En efecto, sea I cualquier intervalo en R,

, si 0 I, 1 I,

A, si 0
/ I, 1 I,
{X I} =
c

A , si 0 I, 1
/ I,

,
si 0
/ I, 1
/ I.
Existen dos clases muy importantes de variables aleatorias, variables aleatorias discretas y
variables aleatorias continuas. Las variables aleatorias discretas aparecen en contextos donde el
experimento intrnsecamente tiene un conjunto de resultados posibles a lo mas contable. Por otro
lado, las variables aleatorias continuas aparecen en experimentos donde el cojunto de resultados
posibles es no contable. Por ejemplo, la estatura de una persona, el tiempo de falla de un electrodomestico, la temperatura de cierto compuesto qumico, etc.
Definici
on 1.5.3 Un variable aleatoria X es llamada discreta si esta toma a lo mas un n
umero
contable de valores. Es decir, si existe una coleccion de puntos {x1 , x2 , } tales que,
X() := {X() : } =
n=1 {xi : X() = xi , }.
3

En la terminologa de teora de la medida se dice que, X es una funcion medible con respecto a la -
algebra F.

12

En el caso de v.a. discretas definimos la funcion de probabilidades asociada a X de la siguiente


manera
p(xn ) := P(X = xn ) n = 1, 2, .
Ahora bien, dado que P() = 1, y =
n=1 { : X = xn }, se tiene que

p(xn ) = 1.

n=1

Observaci
on 1.5.4
P Cualquier funcion no negativa p tal que el conjunto {x R : p(x) > 0} es a
lo mas contable y x p(x) = 1, es funcion de probabilidades de alguna variable aleatoria discreta.
Definici
on 1.5.5 Diremos que una v.a. X es continua si existe una funcion f continua y no
negativa, definida en R, tal que para todo conjunto A de n
umeros reales
Z
f (x)dx.
(1.8)
P(X A) =
A

La funcion f es llamada funcion de densidad de probabilidad o simplemente funcion de densidad


de la v.a. X.
De la relacion (1.8) se obtiene que, si f es una funcion de densidad, entonces
Z
f (x) dx = 1.

Lo anterior es debido a que, {X R} = { : X() R} = y P() = 1. De hecho, si f es


cualquier funcion continua y no negativa tal que
Z
f (x) dx = 1,

entonces f es la funcion de densidad de alguna variable aleatoria continua.


Nota 1.5.6 Es importante hacer notar que existen v.a. que no son continuas ni discretas. A tales
variables aleatorias se le conoce como v.a. mixtas. Sin embargo, tales v.a. quedan fuera del alcance
del presente curso.
En muchos casos es de interes estudiar funciones de variables aleatorias. Entonces, surge la
siguiente pregunta: si X es v.a. para que funciones g se cumple que g(X) tambien es v.a.? La
siguiente proposicion da respuesta a la pregunta.
Proposici
on 1.5.7 Sea X una v.a. definida sobre el espacio de probabilidad (, F, P) y g : R 7 R
una funcion tal que g 1 (I) B(R), para todo I B(R)4 . Entonces,
Y () := g(X()), ,
tambien es variable aletoria.
4

Se dice que la funci


on g es medible con respecto a la -algebra de Borel B(R).

13

Demostraci
on: Basta probar que Y 1 (I) F, para todo intervalo I. Se tiene que,
Y 1 (I) = {Y I} = { : g(X()) I}
= { : X() g 1 (I)}
= X 1 (g 1 (I)).
Ahora bien, dado que g 1 (I) B(R) y X es v.a., se tiene que Y 1 (I) F.

1.6.

Funciones de distribuci
on

Para cada x R definimos el conjunto


A(x) = { : X() x}.
Por la Definicion 1.5.1 se tiene que A(x) F, en consencuencia P(A(x)) esta bien difinido.
Definici
on 1.6.1 La funcion de distribucion FX de una v.a. X se define por
FX (x) = P(A(x)), x R.
Cuando no haya lugar a confusion simplemente escribiremos F en lugar de FX .
Notemos que si F es una funcion de distribucion, entonces F es una funcion de R en [0, 1].
Proposici
on 1.6.2 Sea F una funcion de distribucion, entonces se cumplen las siguientes propiedades
a) lmx F (x) = 0 y lmx F (x) = 1.
b) Si x < y, entonces F (x) F (y).
c) F es continua por la derecha, i.e, F (x + h) F (x) cuando h 0. Ademas, F tiene lmites por
la izquierda, i.e., lmh0 F (x h) existe, y usualmente se donota por F (x).
Demostraci
on:

a) Sea (an )n=1 cualquier sucesion tal que an , y consideremos A(an ). Entonces, A(a1 ), A(a2 ),
es una sucesion decreciente y tal que
tulo
n=1 A(an ) = . Por lo tanto, por el ejercicio 5 del Cap
1, se tiene que
0 = P(
m P(A(an )) = lm F (an ),
n=1 A(an )) = l
n

es decir, lmx F (x) = 0. La otra parte es analoga, y se deja como ejercicio.

b) Sea A(x) = {X x} y A(x, y) = {x < X y}. Entonces, A(y) = A(x) A(x, y) y la union es
disjunta. Luego,
P(A(y)) = P(A(x)) + P(A(x, y)) P(A(x)),
equivalentemente
F (y) F (x).

14

c) Vamos a demostrar que F es continua por la derecha. Debemos probar que


lm F (x + h) = (x).
h0

on de n
umeros
En efecto, notemos que (, x] =
n=1 (, x + an ], donde (an ) es cualquier sucesi
reales positivos tales que an 0. Luego,
F (x) = P(
n=1 {X x + an })
= lm P(X x + an )
n

lm F (x + an )

lm F (x + h),
h0

es decir, F es continua por la derecha.


De manera similar se puede demostrar que F tiene lmites por la izquierda. Para ellos es
sufuciente notar que
P(X < x) = lm P(X x 1/n) = lm F (x 1/n) lm F (x h).
n

h0


Si X es una v.a. continua con funcion de densidad f , entonces
Z x
FX (x) =
f (y) dy, x R.

Como se puede apreciar en la identidad anterior, la funcion de distribucion es u


til para encontrar
probabilidades asociadad a la variable aleatoria correspondiente. En esa misma direccion se tiene
la siguiente
Proposici
on 1.6.3 Sea X una variable aleatoria y F su funcion de distribucion. Entonces, para
todo x < y en R se cumple
P(x < X y) = F (y) F (x).
Demostraci
on: Notemos que, si A(x) = (, x], entonces
{ : x < X() y} = A(y) A(x)c = A(y)\A(x).
Por lo tanto,
P(x < X y) = P(A(y)) P(A(x)) = F (y) F (x).


15

Ejemplo 1.6.4 Encuentre la funcion de distribucion asociada a la funcion de densidad

0 x 1,
x,
f (x) = 2 x, 1 < x 2,

0,
en otro caso.
Sol. Por definicion tenemos que F (x) =

F (x) =

Rx

f (y) dy. Entonces,

0,

x2

,
2

2x

1,

x2
2

x 0,
0 < x 1,
1, 1 < x 2
x > 2.

Si X es un vector aleatorio d-dimensional, X := (X1 , , Xn ), la funcion de distribuci


on
conjunta de X se define por
FX (x1 , , xd ) FX1 , ,Xd (x1 , , xd ) = P(X1 x1 , , Xd xd ), para todo (x1 , , xd ) Rd .
Sea (X, Y ) un vector aleatorio en R2 con funcion de distribucion conjunta FX,Y . La funcion de
distribucion de X, FX , se puede obtener a partir de FX,Y . En efecto, para cada x R se cumple
que
{X x} = {X x} = {X x} {Y < }.
Entonces,
FX (x) = FX,Y (x, ) = lm FX,Y (x, y).
y

A FX se le conoce como distribucion marginal de X. De manera analoga se define la densidad de


marginal de Y .

1.7.

Independencia de variables aleatorias

Sabemos que dada una funcion de distribucion conjunta podemos calcular las densidades
marginales. Sin embargo, en general no se cumple que dadas las marginales se puede determinar la conjunta de manera u
nica. Veamos un ejemplo.
Ejemplo 1.7.1 Sea (X, Y ) un vector aleatorio con densidad de probabilidad conjunta dada por
1
1
5
1
f (0, 0) = , f (0, 1) = , f (1, 0) = , f (1, 1) = .
6
3
12
12
Por otro lado, sean tambien U , V v.a. cuya densidad de probabilidad conjunta esta dada por
1
1
1
g(0, 0) = , g(0, 1) = , g(1, 0) = 0, g(1, 1) = .
4
4
2
16

De lo anterior podemos observar que


fX (0) =

1
1
= fU (0), fX (1) = = fU (1),
2
2

fY (0) =

1
3
= fV (0), fY (1) = = fV (1).
4
4

En el caso en que las v.a. sean indenpendientes podremos asegurar que las marginales determinan
de manera u
nica a la conjunta. Ahora es tiempo de pasar al concepto de independencia de variables
aleatorias.
Definici
on 1.7.2 (i) Dos vectores aleatorios discretos, X e Y , son independientes si
P(X = x, Y = y) = P(X = x)P(Y = y),
para todo x, y Rd .
(ii) Sea (X, Y ) un vector aleatorio con funcion de densidad conjunta fX,Y , es decir,
Z x Z y
fX,Y (u, v) du dv.
P(X x, Y y) =

Se dice que X e Y son variables aleatorias independientes si


fX,Y (x, y) = fX (x)fY (y), para todo x, y R.
Teorema 1.7.3 Sea X e Y v.a. discretas independientes. Entonces,
(i) Para cualesquiera dos conjuntos numerables A y B
P(X A, Y B) = P(X A)P(Y B).
(ii) Para cualesquiera dos funciones reales f, g : R R se tiene que las v.a. f (X) y g(Y ) son
independientes.
Demostraci
on: (i) Notemos que
P(X A, Y B) = P (xA {X = x}, yB {Y = y})
XX
=
P(X = x, Y = y)
xA yB

XX

P(X = x)P(Y = y)

xA yB

= P(X A)P(Y B).


(ii) Dados a, b R definimos
A = {x R : f (x) = a} y B = {x R : f (x) = b}.

17

Entonces, por (i) tenemos que


P(f (X) = a, g(Y ) = b) = P(X A, Y B)
= P(X A)P(Y B)
= P(f (X) = a)P(g(Y ) = b).


Ejemplo 1.7.4 Sea X una variable aleatoria Bernoulli de parametro p, es decir, P(X = 1) = 1
P(X = 0) = p. Definamos Y = 1 X y Z = XY . Encuentre P(X = x, Y = y) y P(X = x, Z = z),
para x, y, z = 0, 1.
Soluci
on. Por definicion de Y tenemos que, dado el valor de X, Y es conocido. Entonces,
P(X = 0, Y = 0) = P(X = 1, Y = 1) = 0
P(X = 0, Y = 1) = 1 p y P(X = 1, Y = 0) = p.
En el otro caso tenemos,
P(X = 0, Z = 0) = 1 p y P(X = 1, Z = 1) = 0
P(X = 1, Z = 0) = p y P(X = 0, Z = 1) = 0.


Ejemplo 1.7.5 Sean X e Y v.a. independientes las cuales tienen una ley geometrica con probabilidad de exito y , respectivamente. Calcular: (i) la distribucion de Z := X Y = mn{X, Y },
(ii) P(Z = X), (iii) la distribucion de X + Y y (iv) Para el caso = , P(Y = k|X + Y = n),
para k = 1, , n.
Soluci
on: (i) En lo que sigue usaremos que [z] denota la parte entera del n
umero real z. Notemos
que
P(Z > z) = P(X > z, Y > z) = P(X > z)P(Y > z) = (1 )[z] (1 )[z] , z 0.
Lo anterior es gracias a que P(X > k) = (1 p)k . Por lo tanto, Z tiene distribucion geometrica
con probabilidad de exito 1 (1 )(1 ).

18

(ii) Notemos que =


k=1 {X = k}. Entonces,
P(Z = X) = P(Y X)

X
=
P(X = k, Y k)
=

k=1

P(X = k)P(Y k)

k=1

P(X = k)(1 )k1 , P(Y k) = (1 )k1

k=1

(1 )k1 (1 )k1

k=1

.
1 (1 )(1 )

(iii) Es claro que X + Y 2. Entonces, para cada n 2 tenemos


P(X + Y = n) =
=

n1
X
k=1
n1
X
k=1
n1
X

P(X + Y = n, X = k)
P(Y = n k)P(X = k)
(1 )k1 (1 )nk1

k=1
n2

= (1 )

k1
n1 
X
1
1

k=1

Por lo tanto, en el caso en que = se tiene que


P(X + Y = n) = (n 1)2 (1 )n2 .
Por otro lado, para 6= obtenemos

P(X + Y = n) = (1 )n2

1
1

n1

1
1
n1

(1 )n1 (1 )(1)
(1 ) (1 ))

19

(iv) Para n 2 y k = 1, , n 2 se tiene


P(Y = k, X + Y = n)
P(X + Y = n)
(1 )k1 (1 )nk1
=
(n 1)2 (1 )n2
1
.
=
n1

P(Y = k|X + Y = n) =

Lo anterior nos dice que, la distribucion de Y dado que X + Y = n es uniforme en {1, , n 1}.

Ejemplo 1.7.6 Sea Y1 , Y2 , una sucesion de variables aleatorias independientes, todas ellas
con distribucion Bernoulli de parametro p y, para cada k N, definamos
Tk := nf{j N :

j
X

Yi = k}.

i=1

Encontrar, para cada n N, la funcion de probabilidades conjunta de


Z1 := T1 , Z2 := T2 T1 , , Zn := Tn Tn1 .
P
Soluci
on: Definamos X0 = 0 y, para cada k N, Xk = ki=1 Yi , entonces:
(i) Si 0 < k1 < k2 < < kn , las variables aleatorias
Xk1 , Xk2 Xk1 , , Xkn Xkn1
son independientes.
(ii) Para j < k, las variables aleatorias Xk Xj tienen distribucion binomial con parametros k j
y p.
Con las observaciones anteriores obtenemos que
P(T1
=
=
=

= y1 , T2 T1 = y2 , , Tn Tn1 = yn )
P(T1 = y1 , T2 = y1 + y2 , , Tn = y1 + + yn )
P(Xy1 1 = 0, Xy1 = 1, Xy1 +y2 1 = 1, Xy1 +y2 = 2, , Xy1 ++yn1 = n 1, Xy1 ++yn = n)
(1 p)y1 1 p(1 p)y2 1 p (1 p)yn 1 p.

Por lo tanto, T1 , T2 T1 , , Tn Tn1 son variables aleatorias indenpendientes y tienen distribucion geometrica con porbabilidad de exito p.

Por u
ltimo, presentamos la siguente
Definici
on 1.7.7 Sea (Xi : i I) una coleccion de variables aleatorias definidad en un mismo
espacio de probabilidad (, F, P), decimos que las variables aleatorias son independientes si: para
cualquier subconjunot finito de i
20

1.8.

Algunos ejemplos de variables aleatorias conocidas

Discretas
1. Bernoulli. Considere un experimento con dos posibles resultados: exito o fracaso. Sea
(
1, si = exito,
X() =
0, si = fracaso.
Supongamos que P(X = 1) = p = 1P(X = 0), para alg
un P (0, 1). Se dice que la variable
aleatoria X tiene distribucion de Bernoulli con probabilidad (parametro) de exito p.
2. Binomial. Sea Y1 , Y2 , , Yn una coleccion de variables
Pnaleatorias independientes con disumero de
tribucion de Bernoulli de parametro p. Definamos X = k=1 Yk , es decir, X es el n
exitos en n ensayos de Bernoulli independientes. Entonces,
 
n k
P(X = k) =
p (1 p)nk , para cada k = 0, 1, , n.
k
Se dice que X tiene distribucion binomial con parametros n y p. Se denota por X Bin(n, p).
3. Poisson. Sea X una variable aleatoria tal que
P(X = k) =

k
e , para cada k = 0, 1, ,
k!

donde > 0. Se dice que X tiene distribucion de Poisson de parametro .


La distribucion de Poisson como un lmite: supongamos que Yn Bin(n, pn ), n = 1, 2,
tales que npn > 0. Entonces,
P(Yn = k)

k
e , k = 0, 1, .
k!

4. Geom
etrica. Supongamos que realizamos un experimento con dos posibles resultados: exiso
o fracaso, donde exito tiene probabilidad p. Realizamos el experimento hasta obtener un
exito, cada realizacion del experimento es independiete. Sea X el n
umero de veces que hay
que repetir el experimento para obtener el primer exito. Entonces, X {1, 2, } y
P(X = k) = (1 p)k1 p.
Se dice que X tiene distribucion geometrica de parametro p, X Geo(p).
En algunos casos se toma Y := X 1 por lo que
P(Y = k) = p(1 p)k , k = 0, 1, 2, .

21

Continuas
1. Distribuci
on uniforme. Decimos que X tiene distribucion uniforme en el intervalo [a, b],
a, b R, si X tiene densidad f dada por
(
1
, a x b,
ba
f (x) =
0,
en otro caso.
La funcion de distribucion correspondiente esta dada por

x a,
Z x
0,
xa
f (y) dy = ba a < x < b,
F (x) =

1,
x b.
Usaremos la notacion X Unif([a, b]).
2. Distribuci
on exponencial. Sea X una v.a. con funcion de distribucion dada por
(
0,
x < 0,
F (x) =
x
1 e , x 0.
Se dice que X tiene distribucion exponencial de parametro o intensidad > 0, se donota
por X Exp(). Notemos que
Z x
F (x) =
ey dy,

es decir, la densidad de X esta dada por


(
ex , x > 0,
f (x) =
0,
en otro caso.
La distribucion exponencial tiene una propiedad sumamente importante en la teora de probabilidad y procesos estocasticos, as como tambien desde el punto de vista de la modelaci
on
estadstica. A saber, para todo s, t 0 se cumple
P(X > t + s|X > t) = P(X > s),

(1.9)

la propiedad anterior es conocida como propiedad de perdida de memoria5 . Vamos a ver que
se cumple (1.9). Primero notamos que
Z
P(X > x) =
ey dy = ex , x 0.
x
5

La propiedad de perdida de memoria caracteriza a la distribucion exponencial dentro de la clase de distribuciones


continuas.

22

Por lo tanto,
P(X > t + s|X > t) =
=
=
=
=

P(X > t + s, X > t)


P(X > t)
P(X > t + s)
P(X > t)
e(t+s)
et
s
e
P(X > s).

Nota 1.8.1 Sea U Unif(0, 1), entonces para > 0 y x > 0, se tiene que


1
P log(1 U ) x
= P(1 U ex )

= P(U 1 ex )
= 1 ex ,
es decir, 1 log(1 U ) Exp().
3. Distribuci
on gama. Sea X una variable aleatoria con funcion de densidad dada por
(

ex (x)1 , x 0,
()
f (x; , ) =
0,
en otro caso.
Se dice que X tiene distribucion gama con parametros , > 0.
Nota: la funcion esta definida por
Z

() =

ex x1 dx.

Verifique que (n) = (n 1)!.


4. Distribuci
on normal est
andar. Sea definida por
1 2
1
(x) = e 2 x , x R.
2

Entonces, es una funcion de densidad. Sea X la v.a. asociada, se dice que X tiene distribucion normal estandar. La funcion de distribucion asociada esta dada por
Z x
(x) =
(y) dy, x R.

La funcion no se puede calcular de manera explcita. Por lo tanto, metodos numericos o


de simulacion de variables aleatorias, son necesarios para conocer aproximaciones de probabilidades de interes.
23

Nota 1.8.2 Sean R y > 0 constantes dadas. Luego,


x
P(X + x) = P(X
)

Z x

=
(y) dy

Z x
(z)2
1
=
e 22 dz.
2 2
A la v.a. Y := X + se le conoce como variable aleatoria con distribucion normal con media
y varianza 2 , y se donota por Y N (, 2 ). La funcion de densidad de Y est
a dada por
(x; , 2 ) =

1
2 2

(z)2
2 2

Las variables aleatorias continuas tienen la siguiente


Propiedad. Sea X una variable aleatoria continua. Entonces,
P(X = x) = para todo x R.
1
1
Demostraci
on: Notemos que {x} =
on
n=1 (x n , x]. Luego, como An = (x n , x] es una sucesi
decreciente se tiene que


1
P(X = x) = lm P x < X x
n
n


1
= lm FX (x) FX (x )
n
n
= 0, dado que F es continua.

1.9.

Esperanza de variables aleatorias

Sea X una v.a.


P discreta y sean x1 , x2 , sus posibles valores. Se dice que X tiene esperanza
finita si la serie
n=1 |xi |P(X = x) es convergente y, en este caso, se define la esperanza de X,
E(X), por

X
E(X) =
xn P(X = xn ).
n=1

Si X es una variable aleatoria continua con funcion de densidad f se define la esperanza de X


como
Z
E(X) =
xf (x) dx,

siempre que la integral del lado derecho este bien definida.


24

Observaci
on 1.9.1 Notese que, directamente de la definicion esperanza, se desprende que si X
es una variable aleatoria no nogativa, entonces E(X) 0.
Proposici
on 1.9.2 Sea X una v.a. discreta que toma u
nicamente valores enteros, entonces
X

xfX (x) =

{x:x>0}

n=1

y
|x|fX (x) =

P(X n),

P(X n).

n=1

{x:x<0}

Demostraci
on: Solo vamos a demostrar la primera identidad, la segunda es analoga.
X

xfX (x) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +

{x:x>0}

= P(X = 1) + P(X = 2) + P(X = 3) +


+P(X = 2) + P(X = 3) +
+P(X = 3) +
..
.

X
=
P(X n).
n=1

Ejemplo 1.9.3 Sea X Geo(p). Entonces, aplicando la proposicion anterior tenemos

X
1
E(X) =
P(X n) =
(1 p)n1 = .
p
n=1
n=1

Cuando se usa Y = X 1 se tiene que E(Y ) =

1p
.
p

Hemos visto anteriormente que si X es una variable aleatoria y g es una funcion real-valuada y
medible, entonces g(X) tambien es variable aleatoria. La siguiente proposicion nos permite calcular
esperanzas de funciones de variables aleatorias.
Proposici
on 1.9.4 Sea X una variable aleatoria discreta y g : R R. Entonces,
X
E(g(X)) =
g(x)fX (x).
x

25

Demostraci
on: Sabemos que g(X) toma los valores
g(x1 ), g(x2 ), ,
con probabilidades
fX (x1 ), fX (x2 ), ,
respectivamente. Por lo tanto, por definicion de esperanza se sigue que, siempre que
X
|g(x)|fX (x) < ,
x

se tiene que
E(g(X)) =

g(x)fX (x).

Proposici
on 1.9.5 (Linealidad) Sean X e Y variables aleatorias y a, b R. Entonces,
E(aX + bY ) = aE(X) + bE(Y ),
siempre que ambos lados esten bien definidos.
Demostraci
on: Vamos a demostrar el caso cuando el vector (X, Y ) es discreto. Sea fX,Y la funcion
de probabilidades conjunta de X e Y . Entonces, por definicion se tiene que
XX
E(aX + bY ) =
(ax + by)fX,Y (x, y)
x

XX
x

XX

axfX,Y (x, y) +

byfX,Y (x, y)

!
= a

X
x

fX,Y (x, y)

+b

fX,Y (x, y)

= aE(X) + bE(Y ).
Observaci
on 1.9.6 Si (X, Y ) es un vector aleatorio con funcion de probabilidades conjunta fX,Y
2
y g : R R tal que g(X, Y ) resulta ser una variable aleatoria. Entonces,
X
Eg(X, Y ) =
g(x, y)fX,Y (x, y),
x,y

siempre que la suma sea absolutamente convergente. La prueba sigue las mismas lneas que la
demostracion de la proposicion anterior.
Definici
on 1.9.7 El momento (i, j) (i, j N) de las variables aleatorias X e Y esta definido por
E(X i Y j ).
Los momentos centrados (alrededor de la media) (i, j) se definen por
ij := E[(X E(X))i (Y E(Y ))j ].
26

Observaci
on 1.9.8 11 es conocido como la covarianza entre X e Y , y generalmente se denota
como, Cov(X, Y ) 11 . La covarianza es un concepto fundamental en la Teora Estadstica.
La varianza de X, Var(X), se define por Var(X) := Cov(X, X).
Omitimos la prueba del siguiente teorema, ya que sigue las mismas ideas que demostracion de
la proposicion anterior.


Teorema 1.9.9 Sean X e Y variables aleatorias y a, b, c, d n


umeros reales. Entonces,
Cov(aX + b, cY + d) = acCov(X, Y ),
y
Var(X + Y ) = Var(X) + Var(Y ) 2Cov(X, Y ).
El estudio de los momentos centrados (o centrales) de las variables aleatorias X e Y describe
como la variaciones (alrededor de la media) de X influyen en las variaciones de Y , y viceversa. Por
lo tanto, al menos de manera intuitiva, se debe tener que si X e Y son independientes entonces
las variaciones de X no deben tener influencia sobre las variaciones de Y , y viceversa.
Teorema 1.9.10 Sean X e Y variables aleatorias tales que su esperanza esta bien definida y es
finita. Entonces, E(XY ) existe y es finita. Ademas, E(XY ) = E(X)E(Y ). Mas aun, Cov(X, Y ) =
0.
Demostraci
on: Supongamos que X e Y son discretas. Entonces,
XX
XX
|x||y|fX (x)fY (y)
|xy|fX,Y (x, y) =
x

!
=

xfX (x)

!
X

yfY (y)

= E(X)E(Y ).
Por lo tanto, E(XY ) existe y es finita. Ademas, de los calculos anteriores se sigue que E(XY ) =
E(X)E(Y ).


1.10.

Suma de variables aleatorias

En la teora de probababilidad y procesos estocasticos es muy com


un que aperezca la suma
de variables aleatorias. El objetivo de esta seccion es estudiar la suma de variables aleatorias
independientes.
Sean X e Y variables aleatorias discretas e independientes, y definamos Z = X + Y . Nuestro
objetivo es encontrar la distribucion de Z. Notemos que Z es de nuevo una variable aleatoria
discreta. Entonces, para cada z perteneciente al rango de Z se tiene que
27

P(Z = z) = P(X + Y = z)
X
=
P(X + Y = z, X = x)
x

P(Y = z x, X = x)

P(Y = z x)P(X = x).

De la u
ltima relacion tenemos que si X e Y tienen funcion de probabilidades fX y fY , respectivamete. Entonces, si fZ denota la funcion de probabilidades de Z, se concluye que
X
X
fZ (z) =
fY (z x)fX (x) =
fX (x)fY (z y).
x

La variable aleatoria Z es llamada convolucion de X con Y . La siguiente notacion es estandar en


la teora de probabilidad
fZ (x) = (fX ? fY )(z).
Un caso muy recurrente en la teora es cuando X e Y son no-negativas, y en este caso la funcion
de distrubucion de Z, denotada por FZ , se puede escribir como
FZ (z) =

z
X

FY (z x)fX (x),

x=0

donde FY denota la funcion de distribucion de Y .


Ejemplo 1.10.1 Sean X e Y dos variables aleatorias independientes con distrubucion de Poisson
con parametros 1 y 2 , respectivamente. Encuentre funcion de probabilidades de la convoluci
on
de X con Y .
Soluci
on: Notemos que Z toma valores en {0, 1, 2, }. Luego, para cada z {0, 1, 2, } tenemos
que
X
fZ (z) =
fY (z x)fX (x)
x
z
X
zx
x
2
=
e2 1 e1
(z x)!
x!
x=0

z
z!
e(1 +2 ) X
x1 zx
2
z!
(z

x)!x!
x=0

(1 + 2 )z (1 +2 )
e
,
z!

donde en la u
ltima igualdad usamos el Teorema del binomio. Por lo tanto, Z tiene distrubuci
on
de Poisson con parametro 1 + 2 .
28

Suma Poisson compuesta: sea


SN =

N
X

Xi ,

i=1

donde N es una variable aleatoria con distribucion Poisson de parametro , y (Xi ) es una sucesion
de variables aleatorias independientes con distribucion com
un F . A SN se le conoce como variable

aleatoria Poisson compuesta. Esta aparece mucho en Teora de Riesgo. Supongamos que X tiene
distribucion F y que es independiente de N y de la sucesion (Xi ).
Proposici
on 1.10.2 Sea h una funcion real-valuada. Entonces,
E(SN h(SN )) = E(Xh(SN + X).
Demostraci
on: Notemos que, por la Ley de Probabilidad Total,
E(Xh(SN + X)) =

E(Xh(SN + X)|N = n)P(N = n)

n=0

E(Xh(Sn + X))

n=0

n e
(por independencia)
n!

n+1 e
=
E(Xn+1 h(Sn+1 ))
,
n!
n=0

(1.10)

la igualdad anterior es gracias a que X, X1 , , Xn tienen la misma distribucion conjunta que


X1 , , Xn . Ahora bien, dado que Xi s son indendientes y tiene la misma distribucion, se obtiene
que para cada j n + 1
E(Xn+1 h(Sn+1 )) = E(Xj h(Sn+1) ).
Luego, sumando sobre 1 j n + 1
(n + 1)E(Xn+1 h(Sn+1 ) =

n+1
X

E(Xj h(Sn+1 )) = E(Sn+1 h(Sn+1 ).

j=1

Por lo tanto, sustituyendo lo anterior en la ecuacion (1.10) tenemos que


E(Xh(SN + X)) =

E(Sn+1 h(Sn+1 ))

n=0

=
=

X
n=1

n+1 e
(n + 1)!

E(Sn h(Sn ))

n e
n!

E(Sn h(Sn ))

n e
(SN = 0, si N = 0)
n!

n=0

= E(SN h(SN )).




29

1.11.

Ejercicios

1. Sean A, B y C eventos. Suponga que A y B son independientes, y que B y C tambien son


independientes. En cada una de las siguientes preguntas justifique su respuesta:
a) En general, son A y C independientes?
b) Es B independiente de A C ?
c) Es B independiente de A C?
2. Demuestre que
P(A B) p(A) + P(B) 1,
la desigualdad anterior es conocida como desigualdad de Bonferroni. Generalice dicha desigualdad para el caso de n eventos, donde n 2.
3. Sea B un evento tal que P(B) > 0. Demuestre que P : F [0, 1], definida por
P (A) = P (A|B)
en una medida de probabilidad sobre (, F).
4. Sean A1 , , An eventos arbitrarios. Pruebe que P(nk=1 Ak ) 1

Pn

k=1

P(Ak ).

5. Sea An una sucesion de eventos tales que An+1 An , para cada n. Demuestre que
P(
m P(An ).
n=1 An ) = l
n

6. a) Demuestre la identidad dada en (1.2).


b) Dar la identidad correspondiente para el caso de la union de n eventos. Justifique su
repuesta.
7. Construir un ejemplo para mostrar que independencia dos a dos no implica independencia.
8. Sea = {1, 2, , p} donde p es un n
umero primo, sea F la -algebra de todos los subconjuntos de , y P(A) = |A|/p, A F. Demuestre que si A, B F son independientes entonces
al menos un evento es o .
9. Sea (Bk )nk=1 una particion de , i.e., los Bs son disjuntos por pares y = nk=1 Bk . Suponga
ademas que para cada k, P(Bk ) > 0. Demuestre que, para cada A F,
P(A) =

n
X

P(A|Bk )P(Bk ).

k=1

Demuestre el analogo para una particion infinita contable.


10. Pruebe que para cualquiera dos eventos, A y B, con P(A) > 0 se cumple que
P(B|A) 1

30

P(B c )
.
P(A)

11. Demuestre que si A y B son eventos independientes tales que A B y P(A) > 0, entonces
P(B) = 1.
12. Sean A, B y C eventos independientes dos a dos, cada uno con probabilidad p. Suponga que
P(A B C) = 0. Encuentre el valor de p tal que el evento A B C tenga la maxima
probabilidad.
13. En el ejemplo 1.4.6 demuestre la expresion para P(B) y la parte b).
14. Un dado se lanza N veces, donde N es un n
umero aleatorio. Sea Ai el evento N = i, y
i
suponga que P(Ai ) = 2 , i 1. Sea S la suma de los resultados en las caras de los dados.
Encuentre las siguientes probabilidades:
a) N = 2 dado que S = 4.
b) S = 4 dado que N es par.
c) N = 2, dado que S = 4 y el primer dado mostro 1.
d) El n
umero mayor en las caras es r, donde S es desconocida.
15. (i) Verique que, para cada > 0,
(
2
2
1 ex /(2 ) , x 0,
F (x) =
0,
en otro caso,
es una funcion de distribucion.
(ii) Encuentre la funcion de densidad correspondiente a F y P(0 X ), donde X tiene
funcion de distribucion F . F es conocida como distribucion de Rayleigh.
16. Suponga que el n
umero de carros que cruzan por la caseta de peaje de Guanajuato durante
un perodo fijo de tiempo es una variable aleatoria con distribucion de Poisson. Sea 0 < p < 1
la probabilidad de que ning
un carro cruce la caseta en este perodo, encuentre una expresion
para la probabilidad de que al menos dos carros la crucen.
17. Sean X y Y variables aleatorias con funcion de densidad de probabilidades conjunta
fX,Y (x, y) =

C
, x, y = 1, 2, . . . .
(x + y 1)(x + y)(x + y + 1)

(i) Calcule la constante C.


(ii) Encuentre la funcion de probabilidades de U = X + Y y V = X Y .
18. Sean X e Y variables aleatorias discretas que toman valores en los enteros. Demuestre que
para cada par de enteros x e y se cumple
P(X = x, Y = y) = P(X x, Y y) P(X x + 1, Y y)
P(X x, Y y 1) + P(X x + 1, Y y 1).
19. Considere el experimento de lanzar un dado r veces. Sea X el mnimo de los n
umeros que
aparece en los r lanzamientos y sea Y el maximo. Encuentre la funcion de probabilidades
del vector (X, Y ).
31

20. Consideremos el experimento aleatorio de lanzar 10 veces un par de dados y definamos X


como el n
umero de veces que no se obtiene un 5 en ninguno de los dos dados y Y como
el n
umero de veces en que se obtiene 5 en los dos dados. Encuentre la funcion de densidad
conjunta de X y Y .
21. Sea (X, Y ) un vector aleatorio discreto con funcion de densidad conjunta dada por
(
cx, si x, y {1, . . . , N 2 }, x y 2 ,
fX,Y (x, y) =
0, en otro caso,
donde N es un n
umero natural y c es una constante.
a) Determine la constante c.
b) Encuentre P(X = Y ), P(X < Y ) y P(X > Y ).
c) Encuentre las densidades marginales de X y Y .
22. Sean X y Y variables aleatorias independientes tales que
P(X = k) = P(Y = k) = 2k , k = 1, 2, .
Encuentre P(X = Y ) y P(Y > X).
23. Sea (N1 , . . . , Nr ) un vector aleatorio con distribucion multinomial de parametros n, p1 , . . . , pr .
Demuestre que, dada cualquier subcoleccion Ni1 , . . . , NP
is , tomada de entre las variables
s
aleatorias N1 , . . . , Nr , el vector aleatorio (NP
on multii1 , . . . , Nis , n
j=1 Nij ) tiene distribuci
nomial con parametros n, pi1 , . . . , pis , 1 sj=1 pij .
24. Considere la funcion

(
i+j+1 , i, j = 0, 1,
f (i, j) =
0
en otro caso.

Para que valores de se tiene que f es una funcion de probabilidades conjunta? Existe
alg
un valor de tal que las variables aleatorias asociadas son independientes?
25. Suponga que (X, Y ) es un vector aleatorio con funcion de probabilidades conjunta dada por
P(X = i, Y = j) = e(a+bi)

(bi)j ai
, i, j 0.
j! i!

Encuentre Cov(X, Y ).
26. Considere n ensayos de Bernoulli independientes con probabilidad de exito p. Sean X e Y el
n
umero de exitos y fracasos, respectivamente. Encuentre la distribucion conjunta del vector
(X, Y ). Que observa?
27. Sea X una variable aleatoria con distribucion de Laplace, es decir, X tiene funcion de densidad dada por
1
f (x) = e|xa|/b ,
2b
donde b > 0 y a R son constantes. Verifique que f es una funcion de densidad. Encuentre
E(X) y Var(X).
32

28. Cada una de N partculas se coloca al azar en una de M celdas. Supongamos que N tiene
distribucion de Poisson con parametro y, para cada k {1, . . . , M }, sea Xk en n
umero
de partculas en la urna k. Demuestre que las variables aleatorias X1 , . . . , XM son variables
aleatorias independientes y que cada una de ellas tiene distribucion Poisson.
29. Sea X y Y variables aleatorias independientes, ambas con distribucion uniforme en {1, . . . , N },
N N. Encuentre la esperanza de U = mn{X, Y } y V = |Y X|.
30. Sean X y Y variables aleatorias independientes con distribucion geometrica de parametro p.
Defina U = mn{X, Y } y V = X Y . Demuestre que U y V son independientes.
31. Dada una variable aleatoria con valores en los enteros no negativos se define el momento
factorial de orden k, (k) , por
(k) = E[X(X 1) (X k + 1)].
(i) Encuentre el momento factorial de orden 2 de una variable aleatoria X con distribucion
Poisson de parametro > 0. Deduzca que Var(X) = .
(ii) Sea X una variable aleatoria con distribucion binomial de parametros n y p. Encuentre
E(X(X 1)) y Var(X).
32. Sea X una variable aleatoria arbitraria. Demuestre que

P(|X| n) E(|X|) 1 +

i=1

P(|X| n).

i=1

33. Considere la suma Poisson compuesta definida en clase. Suponga que X tiene funcion de
distribucion F . Demuestre que para cualquier entero positivo n se cumple

n1 
X
n1
E(S ) =
E(S j )E(X nj ).
j
j=0
n

33