Sie sind auf Seite 1von 105

Notas de Probabilidades y

Estadstica
Captulos 1 al 6
Vctor J. Yohai
Basadas en apuntes de clase tomados por Alberto Dboli
Diciembre 2003
Captulo 1
Espacios de Probabilidad.
1.1. Experimentos aleatorios. Algunas considera-
ciones heuristicas.
Se llamara experimento aleatorio a un experimento tal que (i) no se
puede preveer el resultado de un solo experimento, (ii) si se repite el experi-
mento varias veces, la frecuencia con la cual el resultado est a en un conjunto
A converge a un n umero.
Ejemplos.
1. El experimento consiste en arrojar una moneda. En este caso el con-
junto de todos los posibles resultados sera
= {0, 1},
0 corresponde a ceca y 1 a cara. Si se repite experimento muchas veces, la
frecuencia con que sale por ejemplo cara tiende a 0.5
2. El experimento consiste en lanzar un dado. En este caso el conjunto
de todos los posibles resultados sera
= {1, 2, 3, 4, 5, 6}.
Si se tira el dado muchas veces, por ejemplo la fecuencia con que el
resultado esta en el conunto A sera #A/6, donde #A representa el
cardinal de A.
3. El experimento consiste en lanzar una jabalina y registrar la marca
obtenida. En este caso el conjunto de todos los posibles resultados ser a el
conjunto de reales positivos. En este caso la frecuencia con que el resultado
este por ejemplo en un intervalo [a, b] depender a del atleta.
4. Se elige al azar un alumno de primer grado de un colegio y se anota
su peso, x y la altura y En este caso
= {(x, y) R
2
: x > 0, y > 0}.
1
Como puede apreciarse los resultados pueden conformar un conjunto
nito o innito de cualquier cardinalidad.
Supongamos ahora que se hacen n repeticiones del experimento aleatorio.
Si A , sea C
n
(A) el n umero de veces que el resultado est a en A, luego
la frecuencia relativa del conjunto A se dene por
f
n
(A) =
C
n
(A)
n
.
En el caso de un experimento aleatorio, cuando n crece, est a frecuencia
se aproxma a un n umero que se llamara probabilidad de A y denotaremos
por P(A).
Clatramente
0 f
n
(A) 1,
de manera que
P (A) = lm
n
f
n
(A) ,
y entonces
0 P (A) 1.
Como veremos no se podra denir la probabilidad para todo subconjunto
de resultados.
Para precisar este concepto y estudiar sus propiedades formularemos la
teora axiom atica de probabilidades.
1.2. Axiomas de probabilidad
En primer lugar deniremos algunas propiedades que tendr a la familia
de todos los conjuntos para los cuales est an denida su probabilidad. Esto
nos lleva al concepto de = algebra.
1.2.1. Algebras.
Sea un conjunto. Deniremos el conjunto partes de , por P() =
{A : A }.
Denici on.Una familia de subconjuntos de , A P(), es una -
algebra sobre si satisface las siguientes propiedades
1. A.
2. Si A A entonces A
c
A.
3. Si A
1
, ..., A
n
, ... es una sucesion de elementos de A entonces A =
S

i=1
A
i
A.
Propiedades
P1. Por 1 y 2 es claro que A.
2
P2. Si A
1
, ..., A
n
son elementos de A entonces
S
n
i=1
A
i
A
Demostraci o n
Para ver esto supongamos que A
i
A ; i = 1, 2, ..., n. Probaremos que
A =
S
n
i=1
A
i
A.
Denamos una sucesion numerable (B
i
)
i1
agregando el conjunto de
la siguiente manera
B
j
= A
j
, 1 j n,
B
k
= si k > n.
Entonces por ser A una -algebra se tendra que
S

i=1
B
i
A y por lo
tanto
A =
n
[
i=1
A
i
=

[
i=1
B
i
A.
P3. Si A es una - algebra, y A
1
, ..., A
n
, ... es una sucesi on de elementos
de A entonces A =
T

i=1
A
i
A.
Demostraci on. Esto resulta de que A = (
S

i=1
A
c
i
)
c
/
P4. Si A es una -algebra, y A
1
, ..., A
n
son elementos de A entonces
A =
T
n
i=1
A
i
A.
Se demuestra igual que P2.
P5. Si A es una - algebra, y A
1
y A
2
son elementos de A, entonces
A
1
A
2
A.
Demostraci on. En efecto A
1
A
2
= A
1
T
A
c
2
A.
P6. La algebra m as chica posible es
A
0
= {, },
y la m as grande posible es
A
1
= P () .
Luego si A es una - algebra sobre entonces
A
0
A A
1
.
Observaci on. En el contexto de la teora de la medida, un elemento de
la algebra se llama un conjunto medible.
Retornando a la heurstica estar a denida la probabilidad para los ele-
mentos de una algebra.
3
1.2.2. Espacios de Probabilidad.
Denici on. Un espacio de probabiliad es una terna (, A, P) donde
es un conjunto, A es una -algebra sobre , y P : A [0; 1] es una funci on
que satisface:
1. P() = 1.
2. -aditividad. Si (A
n
)
n1
es una sucesion de elementos de A disjuntos
dos a dos (A
i
T
A
j
= , si i 6= j), entonces
P(

]
i=1
A
i
) =

X
i=1
P(A
i
).
Notacion:
U
denota una union disjunta.
Observaciones.
1. El conjunto se denomina espacio nuestral y se interpreta como el
conjunto de resultados posibles del experimento, los elementos de A se de-
nominan eventos, y corresponden a los subconjuntos de para los cuales
la probabilidad est a denida. Finalmente P se denomina funcion de prob-
abilidad, y dado A A, P(A) se interpreta como la probabilidad de que el
resultado del experimento este en A.
2. En el contexto de la teora de la medida la terna (, A, P) corresponde
a un espacio de medida donde la medida P asigna 1 al espacio total.
3. Si queremos formalizar la idea intiutiva de la probabilidad como lmite
de la frecuencia es importante observar que la frecuencia tiene la propiedad
de -aditividad. En principio veamos que es aditiva.
Sea A
1
, A
2
, ..., A
n
eventos disjuntos tomados de a dos, esto es, A
i
T
A
j
=
si i 6= j entonces
f
n

n
[
i=1
A
i
!
=
C
n
(
S
n
i=1
A
i
)
n
=
P
n
i=1
C
n
(A
i
)
n
=
n
X
i=1
f
n
(A
i
) .
La aditividad ahora se deduce pasando al lmite.
Ejemplos:
1.-Sea un conjunto, A = P(). Dado x
0
. Denimos: A
P(A) =

1 si x
0
A
0 si x
0
/ A.

P se denota
x
0
y se dice que la probabilidad esta concentrada en x
0
o bien
que el unico punto de densidad positiva es x
0
.
2.- Si = {x
1
, x
2
, ..., x
n
, ...} A = P(X) , 0 a
i
1, i = 1, 2, ...
Supongamos que

X
i=1
a
i
= 1.
4
Denimos: A
P(A) =
X
i/x
i
A
a
i
donde P({x
i
}) = a
i
.
En este caso P dene una medida de probabilidad y esta completamente
determinada por el valor o el peso asignado a cada singleton {x
0
}.
Propiedades.
P1. P () = 0.
Demostraci on
Es inmediata, pues si tomamos A
i
= , para todo i N entonces por la
-aditividad
0 P () = P

]
i=1
A
i
!
=

X
i=1
P (A
i
) =

X
i=1
P () 1,
y esto s olo se cumple en el caso de que P () = 0. 2
P2. Sean A
1
, ...., A
n
eventos disjuntos. Luego P (
U
n
i=1
A
i
) =
P
n
i=1
P (A
i
) .
Demostraci on
Tomemos la sucesi on B
j
= A
j
si j = 1, ..., n y B
j
= si j > n. Aplicando
la propiedad de aditividad se obtiene el resultado.
P3. Si A A entonces
P (A
c
) = 1 P (A) .
Demostraci on. Esto sale teniendo en cuenta que
1 = P () = P

A
]
A
c

= P (A) +P (A
c
) .
P4. Consideremos dos eventos A
1
y A
2.
Entonces
P (A
1
A
2
) = P (A
1
) P

A
1
\
A
2

.
Demostraci on
Como
A
1
= (A
1
A
2
)
]

A
1
\
A
2

se obtiene
P (A
1
) = P (A
1
A
2
) +P(A
1
\
A
2
)
= P (A
1
A
2
) +P

A
1
\
A
2

,
y de ah el resultado 2.
5- Si A
1
, A
2
son eventos y A
1
A
2
entonces
P(A
2
A
1
) = P(A
2
) P(A
1
).
5
y adem as
P(A
1
) P(A
2
).
Demostraci on
Para ver esto escribimos como union disjunta a A
2
A
2
= A
1
]
(A
2
A
1
).
Entonces aplicando la aditividad se obtienen los dos resultados
P (A)
2
= P (A
1
) +P(A
2
A
1
)
| {z }
0
P (A
1
) . 2
P6. Si A
1
, A
2
son eventos entonces
P

A
1
[
A
2

= P (A
1
) +P (A
2
) P

A
1
\
A
2

.
Demostraci on
Escibimos la uni on en forma disjunta
A
1
[
A
2
= (A
1
A
2
)
[

A
1
\
A
2

[
(A
2
A
1
) .
Entonces
P

A
1
[
A
2

= P (A
1
A
2
) +P

A
1
\
A
2

+P (A
2
A
1
) =
= P (A
1
) P

A
1
\
A
2

+P

A
1
\
A
2

+P (A
2
) P

A
1
\
A
2

= P (A
1
) +P (A
2
) P

A
1
\
A
2

. 2
P7. En particular se obtiene de P6 la subaditividad nita
P

A
1
[
A
2

P (A
1
) +P (A
2
) .
Por inducci on sale que si A
i
A, i = 1, 2, ..., k entonces
P

k
[
i=1
A
i
!

k
X
i=1
P (A
i
) .
P8.- -subaditividad. Sea (A
n
)
n1
A y B =
S

n1
A
n
. Entonces
P(B)

X
n=1
P(A
n
).
6
Demostraci on
Podemos disjuntar la sucesion sin alterar la union. Este es un proceso
tpico.
Comenzamos deniendo
B
j
=
j
[
i=1
A
i
j 1.
Esta sucesi on es creciente para todo n N tal que B
n1
B
n
.
Ahora expresamos la uni on de manera disjunta deniendo
e
B
0
= ,
e
B
1
= B
1
,
e
B
2
= B
2
B
1
,
e
B
3
= B
3
B
2
,
...
...
e
B
n
= B
n
B
n1
.
Luego
A =
]
nN
e
B
n
Por la aditividad y el hecho de que
e
B
i
A
i
, resulta
P (A) =

X
n=1
P

e
B
n

= lm
k
k
X
n=1
P (B
n
B
n1
) =
= lm
k
P (B
k
) = lm
k
P

k
[
i=1
A
i
!


X
n=1
P (A
i
) . 2
P9. Si (A
n
)
n1
es una sucesion de eventos tal que A
n
A
n+1
. Si deni-
mos A =
S

i=1
A
i
, entonces
P(A) = lm
n+
P(A
n
).
Demostraci on.
Como la sucesi on es creciente entonces podemos transformar la union
en una uni on disjunta deniendo:
B
0
= A
0
= , B
1
= A
1
A
0
, B
2
= A
2
A
1
, ...., B
k
= A
k
A
k=1
, ...
7
Luego
A =

]
k=1
B
k
,
y por lo tanto
P (A) =

X
k=1
P (B
k
) = lm
n
n
X
k=1
P (B
k
) = lm
n
n
X
k=1
P (A
k
A
k1
)
= lm
n

n
X
k=1
P(A
k
)
n
X
k=1
P (A
k1
)
!
= lm
n
P (A
n
) .
P10. Si (A
n
)
n1
es una sucesion de eventos tal que A
n
A
n+1
. Si
denimos A =
T

i=1
A
i
,entonces
P(A) = lm
n+
P(A
n
).
Demostraci on.
Sea B
n
= A
c
n
. Luego (B
n
)
n1
es una sucesion creciente de eventos y
A
c
=
S

i=1
B
i
. Luego por la propiedad anterior
1P(A) = P(A
c
) = lm
n+
P(B
n
) = lm
n+
(1 P (A
n
)) = 1 lm
n+
P(A
n
).
de donde sale el resultado.2
Denici on. Se llama lmite superior de una sucesion de conjuntos (A
n
)
n1

al conjunto
A =
\
k1

[
n=k
A
n
,
y lmite inferior de la sucesion al conjunto
A =
[
k1

\
n=k
A
n
.
Obviamente
A A.
Adem as
(A)
c
=
_
_
[
k1

\
n=k
A
n
_
_
c
=
\
k1


\
n=k
A
n
!
c
=
=
\
k1

[
n=k
A
c
n
= A
c
.
8
Es decir el lmite inferior de la sucesion (A
n
)
n1
es el lmite superior de la
sucesi on (A
c
n
)
n1
.
Proposicion. Caracterizacion de los lmites superiores e inferiores
(a)
A = { : esta en innitos conjuntos A
n
} = A

(b)
A = { : esta en todos los A
n
salvo en un n umero nito}
= A

Demostraci on
a) Supongamos que A

entonces dado k N existe n


0
k N tal
que
S

n=k
A
n
de manera que A.
Recprocamente si / A

entonces se encuentra en un n umero nito


de conjuntos A
n
. Supongamos que A
n
h
sea el ultimo en el que esta, es decir
si n > n
h
entonces / A
n
de manera que /
S

n=n
h
+1
A
n
y as / A.
b) Consideremos la sucesi on de los complementos, es decir (A
c
n
)
n1
. Por
la observacion hecha anteriormente y el punto a) se tiene que
(A)
c
= ({ : esta en innitos conjuntos A
c
n
})
c
=
= { : pertenece s olo a un n umero nito de conjuntos A
c
n
}.
Entonces
A = { : esta en todos los A
n
salvo en un n umero nito }
= A

.
P11. Dada una sucesi on de eventos (A
n
)
n1
, se tiene
(a) P

A

lmP (A
n
) .
(b) P (A) lmP (A
n
) .
(c)Adem as, en el caso de que A = A entonces se dice que existe el lmite
de la sucesion (A
n
)
n1
y en tal caso
P

A

= P (A) = lm
n
P (A
n
) .
a) Como lo hicimos anteriormente consideremos
A =

\
k=1
[
ik
A
i
y escribamos
B
k
=
[
ik
A
i
.
9
Entonces la sucesion (B
n
)
n1
es decreciente y
A =
\
k1
B
k
.
Luego, como i k se tiene A
i
B
k
podemos escribir
P (B
k
) sup
ik
{P (A
i
)}.
Luego
P

A

= lmP (B
k
) = inf{P (B
k
) : k 1}
()
inf
k1
sup
ik
{P (A
i
)} = lmP (A
i
) . 2
(b) Se deja como ejercicio.
(c) De (a) y (b) tenemos que
P (A) lmP (A
n
) lmP (A
n
) P

A

.
Luego si A = A, resulta P (A) = P

A

y entonces
P (A) = lmP (A
n
) = lmP (A
n
) = P

A

.
Luego P (A) = P

A

= lm
n
P (A
n
) .
Observaci ones
1. En general no se puede tomar como algebra Aa P() para denir el
espacio de de probabilidad. Se prueba en teora de la medida que bajo ciertas
condiciones todo conjunto de medida positiva contiene un subconjunto no
medible.
2. Si el conjunto es a lo sumo numerable se puede tomas A = P().
1.3. Algebra generada por una familia de con-
juntos.
Proposicion. Dado un conjunto y una familia = de subconjuntos de
, existe una algebra A

tal que (i) = A

y (ii) Si A es otra algebra


A tal que = A, entonces A

A. Es decir A

es la menor -algebra que


contiene a =.
Demostraci on
Denotaremos a la familia de todas las algerbras que contiene a = por
R . Entonces
R = {A : A es una algebra y A =}.
10
Claramente R es no vaca, ya que P() R. Denamos ahora
A

=
\
AR
A.
Primero mostraremos que A

es un -algebra. En efecto, A, para


toda A R, luego A

.
Adem as sea una sucesion numerable de eventos A
1
, A
2
, ...., A
n
, ... que
estan en A

. Luego cada A
i
A para todo A R. Luego
S

i=1
A
i
A,
para todo A R y entonces
S

i=1
A
i
A

. Esto prueba que A

es un -
algebra. Por oto lado si A es una algebra y A =, entonces A R, y
esto umplica que A

A.
Denici on del algebra de Borel en los reales. Sea R el conjunto
de n umeros reales. Luego el algebra de Borel que denotaremos por B, es
el algebra generada por todos los conjuntps de la forma A
x
= (, x],
donde x R. Un conjunto B B se denomina boreliano.
Propiedades.
P1. Todo intervalo (a, b] es un boreliano Para esto basta con observar
que
(a, b] = (, b] (, a].
P2. Dado x R , {x} B. Para esto se observa que n N
I
n
= (x
1
n
, x] B.
Puesto que x
1
n
x se obtiene que
{x} =

\
n=1
I
n
B.
P3. (a, b) = (a, b] {b} B.
P4. [a, b] = {a}
S
(a, b] B.
P5. [a, b) = {a}
S
(a, b) B
P6. Todo abierto es un boreliano
Demostraci on.
Sea G R un abierto. x G existe un intervalo (a
x
, b
x
) tal que x
(a
x
, b
x
) G con a
x
y b
x
racionales. por lo tanto G puede escribirse como la
union numerable de borelianos
G =
[
xG
(a
x
, b
x
),
y por lo tanto G B.
P7. Todo cerrado es un boreliano
11
Demostraci on.
Sea F un cerrado. Entonces F
c
= G es un abierto y por el punto anterior
F
c
B. Ahora por ser agebra se obtiene que
F = (F
c
)
c
B
Denici on del algebra de Borel en R
n
. El algebra de Borel
en R
n
es el algebra generada por los conjuntos de la forma
A
(x
1
,x
2
,...xn)
= (, x
1
] (, x
2
] ... (, x
1
],
donde (x
1
, ..., x
n
) es una n-upla de n umeros reales. Ser a denotada por B
n
.
Observaci on.
De manera analoga a los borelianos en R, la algebra de Borel coincide
con la generada por los abierros (cerrados).
P8. Cualquier rect angulo en R
n
es un boreliano.
P9. Todo abierto (cerrado) en R
n
es un boreliano.
Demostraci on: Se deja como ejercicio.
1.4. Espacios de probabilidad nitos o numerables.
Sea (, A, P) un espacio de probabilidad con a lo sumo numerable.
En este caso podemos tomar como A el conjunto de partes de . Denimos
la funcion de densidad p, asociada a la probabilidad P por
p : [0, 1]
de la siguiente manera
p (w) = P ({w}) .
Se tendra la siguiente propiedades
P1. La funcion de densidad determina la funcion de probabilidad:
P (A) =
X
wA
P ({}) =
X
wA
p () .
Demostraci on. Si A entonces
A =
]
wA
{},
de manera que
P (A) =
X
wA
P ({}) =
X
wA
p () .
12
P2. Si es nito o numerable, se cumple que
X
w
p () = 1.
Demostraci on. En efecto por P1
1 = P () =
X
w
p () .
Denici on. Decimos que un espacio nito = {w
1
, .., w
n
} es equiprob-
able sii
i, j : P ({w
i
}) = P ({w
j
}) .
Observaci on.
Un espacio de probabilidad innito no puede ser equiprobable puesto que
en tal caso se escoge un conjunto innito numerable. En efecto, supongamos
que = {
1
,
2
, ...,
n
, ...}, y p() = c. Luego por P2 se tendra
1 =

X
i=1
p(
i
) =

X
i=1
c,
absurdo puesto que
P

i=1
c = o 0 seg un c > 0 o c = 0.
P3. Si es un espacio de probabilidad nito equiprobable entonces, la
probabilidad de cualquier evento A se calcula
P (A) =
#A
#
,
donde # denota el cardinal de A.
Demostraci on. Para ver esto supongamos que para todo se tenga
p () = c entonces
1 =
X

p() =
X

c = c
X

1 = c.#,
y luego,
c =
1
#
.
Adem as
P (A) =
X
wA
p() =
X
wA
c = c
X
wA
1 = c (#A) =
#A
#
.
Ejemplo.
Hallar la probabilidad de que dado un conjunto de n personas, dos per-
sonas cumplan a nos el mismo da. Suponemos que todos los a nos tienen 365
13
das y las probabilidades de nacimiento en cualquier fecha son equiproba-
bles. Supongamos que a cada persona se le asigna un n umero entre 1 y n y
sea x
i
el da del cumplea no de la persona i. Luego 1 x
i
365, y podemos
considerar el siguiente espacio muestral
= {(x
1
, x
2
, ..., x
n
) : x
i
N : 1 x
i
365}.
En vez de calcular la probabilidad de que dos personas cumplan el mismo
da, calculemos la del complemento, es decir la probabilidad de que todas
cumplan a nos en das distintos
A
c
= {(x
1
, x
2
, ..., x
n
) : x
i
N : 1 x
i
365, x
i
6= x
j
si i 6= j}.
Por un lado
# = 365
n
Por otro lado el cardinal de
#A
c
= C(365, n)n!.
Observaci on.
La importancia de la combinatoria se ve en este punto; es necesario
contar con principios de enumeraci on.
En este caso, primero seleccionamos los m dias distintos entre los 365
das posibles y luego por cada muestra se obtienen n! formas distintas de
distribuirlos entre n personas.
Las probabilidades que se obtienen usando est a formula pueden con-
tradecir la intuici on. Por ejemplo, si n = 20, P (A) 0,41, si n = 30,
P (A) 0,76 y si n = 40, P (A) 0,89 .
1.5. Probabilidad condicional
Sea (, A, P ) un espacio de probabilidad. A, B A, tal que P (B) 6= 0.
Queremos estudiar la c omo se ve alterada la probabilidad de ocurrencia
de A cuando se conoce que el evento B ha ocurrido. En este caso habr a que
redinir el el espacio muestral considerando solamente a los elementos de B
como posibles resultados.
Por ejemplo, consideremos el experimento de tirar un dado y pre-
guntemosnos acerca de la probabilidad de que salga un seis, sabiendo que
el dado escogido es un n umero par. En este caso la probabilidad no es 1/6
puesto que tenemos la certeza de que el resultado est a en el conjunto {2, 4, 6}
Como cada uno de estos tres resultados tienen identica probabilidad, resul-
tara ve que la probabilidad ser a 1/3.
Vamos a tratar de determinar cual debe ser la probabilidad de un evento
A condicional a que se conoce que B ha ocurrido, utilizando interpretacion
14
heurstica de la probabilidad como limite de la frecuencia con la cual
un evento ocurre. Para esto supongamos que se han hecho n repeticiones
independientes del experimento y denotemos con
n
B
: el n umero de veces en el que ocurre el resultado B,
n
AB
: el n umero de veces en el que ocurre el resultado A B.
Heursticamente la probabilidad condicional de A condicionalB,sera el
lmite de la frecuencia con la cual A ocurre en los experimentos donde B
ocurre, es decir el lmite de
n
AB
n
B
.
Luego, la probabilidad de que ocurra A condicional B ser a
lm
n
n
AB
n
B
= lm
n
n
AB
n
n
B
n
=
lm
n
n
AB
n
lm
n
n
B
n
=
P (A B)
P (B)
.
Esto justica la siguiente denicion:
Denici on. Sea (, A, P ) un espacio de probabilidades A, B A tal
que P (B) > 0. Se dene la probabilidad condicional de A dado B por
P (A|B) =
P (A B)
P (B)
.
Proposicion.
Fijado el evento B podemos denamos
e
P : A [0, 1] A A
e
P (A) = P (A|B)
para todo A A . Luego
e
P es una probabilidad
Demostraci on
(i)
e
P () = P (|B) =
P ( B)
P (B)
=
P (B)
P (B)
= 1
(ii) Sea (A
n
)
n1
A disjuntos
e
P


]
n=1
A
n
!
= P


]
n=1
A
n
|B
!
=
P ((
U

n=1
A
n
) B)
P (B)
=
=
P (
U

n=1
(A
n
B))
P (B)
=
P

n=1
P (A
n
B)
P (B)
=
=

X
n=1
P (A
n
B)
P (B)
=

X
n=1
P (A
n
|B) =

X
n=1
e
P (A
n
) 2
15
1.6. Independencia de eventos.
Denici on. Sea (, A, P ) un espacio de probabilidades, A, B A Se
dice que A yB son independientes sii
P (A B) = P (A) P(B)/
Propiedad. Si P(B) > 0, entonces A y B son independientes si y solo
si P(A|B) = P(A).
Si P(B) = 0, dado cualquier A A se tiene que A y B son independi-
entes. La demostraci on es inmediata.
La propiedad de independencia se generaliza para un n umero nito de
eventos.
Denici on. Se dice que A
1
, ..., A
k
son independientes sii para cualquier
sucesi on de subndices (i
1
, ...i
h
), h k, con i
r
6= i
s
si r 6= s se tiene que
P
_
_
h
\
j=1
A
i
j
_
_
=
h
j=1
P

A
i
j

.
Observaciones.
1. Para tres eventos A
1
, A
2
y A
3
se deben cumplir las siguientes igual-
dades
P (A
1
A
2
) = P (A
1
) P (A
2
)
P (A
1
A
3
) = P (A
1
) P (A
3
)
P (A
2
A
3
) = P (A
3
) P (A
3
)
P (A
1
A
2
A
3
) = P (A
1
) P (A
2
) P (A
3
) .
2. No alcanza la independencia tomados de a dos.
Como ejemplo tomemos = {w
1
, w
2
, w
3
, w
4
} espacio de probabilidad
equiprobable, es decir P ({w
i
}) =
1
4
Entonces los conjuntos
A
1
= {w
1
, w
2
}
A
2
= {w
1
, w
3
}
A
3
= {w
2
, w
3
}
son independientes tomados de a dos pero no en forma conjunta.
16
Mas precisamente, se cumple que
j : P (A
j
) =
1
2
A
i
A
j
= {w
k
} para alg un k
y
P (A
i
A
j
) =
1
4
=
1
2

1
2
= P (A
i
) P (A
j
) .
Pero
A
1
A
2
A
3
= ,
y por lo tanto
0 = P (A
1
A
2
A
3
) 6= P (A
1
) P (A
2
) P (A
3
) =
1
8
.
Proposicion. A
1
, ..., A
k
son eventos independientes sii para cualquier
sucesi on (i
1
, ...i
h
), h k, con i
r
6= i
s
si r 6= s y tal que
P
_
_
h
\
j=2
A
i
j
_
_
> 0,
se tiene que
P
_
_
A
i
1
|
h
\
j=2
A
i
j
_
_
= P (A
i
1
) . (1.1)
Demostraci on.
Supongamos primero que A
1
, ..., A
k
son independientes y demostraremos
que se cumple (1.1). Sean A
i
1
A
i
2
, ..., A
i
h
tales que i
r
6= i
s
si r 6= s y
P

T
h
j=2
A
i
j

> 0
Entonces
P
_
_
A
i
1
|
h
\
j=2
A
i
j
_
_
=
P

T
h
j=1
A
i
j

P

T
h
j=2
A
i
j
=
Ind.
Q
h
j=1
P

A
i
j

Q
h
j=2
P

A
i
j
= P (A
i
1
) .
Supongamos ahora que A
1
, ..., A
k
son eventos que satisfacen la propiedad
del enunciado.
Queremos probar que entonces son independientes, es decir que
P
_
_
h
\
j=1
A
i
j
_
_
=
h
Y
j=1
P

A
i
j

(1.2)
Lo probaremos por induccion sobre h. Comenzaremos con h = 2. Dados
A
i
1
y A
i
2
con i
1
6= i
2
, pueden suceder que (a) P(A
i
2
) = 0 o que (b)
17
P(A
i
2
) > 0. En el caso (a) se tiene que como A
i
1
A
i
2
A
i
2
, se tiene que
P(A
i
1
A
i
2
) = 0 y luego
P(A
i
1
A
i
2
) = 0 = P(A
i
1
)P(A
i
2
) (1.3)
En el caso (b) como vale (1.1) se tiene
P(A
i
1
|A
i
2
) =
P(A
i
1
A
i
2
)
P(A
i
2
)
= P(A
i
1
)
y luego (1.3) tambien vale. Esto muestra que (1.2) vale para h = 2.
Supongamos ahora que (1.2) vale para h y probemos que tambien vale
para h + 1.
Elegimos A
i
1
A
i
2
, ..., A
i
h
, A
i
h+1
eventos. Consideramos dos casos
(a)Consideremos el caso P

T
h+1
j=2
A
i
j

= 0. En tal caso por la suposicion


que (1.2)vale para conjuntos se tiene que
0 = P
_
_
h+1
\
j=2
A
i
j
_
_
=
h+1
Y
j=2
P

A
i
j

.
Luego
h+1
Y
j=1
P

A
i
j

= 0, (1.4)
y como
T
h+1
j=1
A
i
j

T
h+1
j=2
A
i
j
se tendr a que
P
_
_
h+1
\
j=1
A
i
j
_
_
= 0. (1.5)
De (1.4) y (1.5 obtenemos que
P
_
_
h+1
\
j=1
A
i
j
_
_
=
h+1
Y
j=1
P

A
i
j

.
(b) Consideremos el caso P

T
h+1
j=2
A
i
j

> 0. Entonces como estamos


suponiendo que (1.1) vale para todo h
P
_
_
A
i
1
|
h+1
\
j=2
A
i
j
_
_
= P (A
i
1
) ,
y luego
P

T
h+1
j=1
A
i
j

P

T
h+1
j=2
A
i
j
= P (A
i
1
) .
18
Equivalentemente
P
_
_
h+1
\
j=1
A
i
j
_
_
= P (A
i
1
) P
_
_
h+1
\
j=2
A
i
j
_
_
,
y como por la hipoteisis inductiva (1.2)vale para h, se deduce
P
_
_
h+1
\
j=1
A
i
j
_
_
= P (A
i
1
)
h+1
Y
j=2
P

A
i
j

=
h+1
Y
j=1
P

A
i
j

. 2
Denici on. Sea I un conjunto nito o numerable, una sucesion {A
i
}
iI
se dice una particion de sii
1.
[
iI
A
i
=
2. Si i 6= j entonces
A
i
A
j
=
Teorema de la Probabilidad Total. Sea (, A, P) espacio de proba-
bilidad y {A
i
}
iI
A una particion de y B A. Entonces
P (B) =
X
iI
P (B A
i
)
Demostraci on
Como
B =
]
iI
(B A
i
) ,
entonces
P (B) =
X
iI
P (B A
i
) . 2
Teorema de Bayes. Sea (, A, P) e.p y {A
i
}
1ik
una particion de
y B A.
Supongamos conocidas a priori las probabilidades P (B|A
i
) y P (A
i
) para
todo i. Entonces
P (A
i
|B) =
P (A
i
) P (B|A
i
)
P
k
i=1
P (A
j
) P (B|A
j
)
.
Demostraci on
19
Usando el teorema de la probabilidad total teniendo en cuenta que
{A
i
}
1ik
es una partici on y aplicando la denici on de probabilidad condi-
cional se obtiene
P (A
i
|B) =
P (A
i
B)
P (B)
=
P (A
i
B)
P
k
j=1
P (A
j
B)
=
=
P (A
i
) P (B|A
i
)
P
k
j=1
P (A
j
) P (A
j
B)
.
Ejemplo de aplicaci on.
Consideremos un test que detecta pacientes enfermos de un tipo espec-
co de enfermedad. La detecci on corresponde a que el test de positivo. El re-
sultado de un test negativo se interpreta como no detecci on de enfermedad.
Sea
A
1
: el evento el paciente seleccionado es sano
A
2
: el evento el paciente seleccionado es enfermo
Entonces {A
1
, A
2
} constituye una particion del espacio de probabilidad
Consideremos adem as
T
+
: el evento el test da positivo
T

: el evento el test da negativo


Supongamos conocidas las probabilidades de ser sano o enfermo antes
de hacer el test (probabolidades apriori).
P (A
1
) = 0,99; P (A
2
) = 0,01.
Ademas supongamos que
P (T
+
|A
1
) = 0,01; P (T
+
|A
2
) = 0,99.
Observaci on.
Para un test perfecto se pedira
P (T
+
|A
1
) = 0; P (T
+
|A
2
) = 1.
Es decir supusimos la existencia de un test no perfecto.
Calculemos la probabilidad de que dado que el test detecta enfermedad
el paciente sea efectivamente enfermo (esta probabilidad se denomina prob-
abilidad a posteriori)
P (A
2
|T
+
) =
P (A
2
) P (T
+
|A
2
)
P (A
1
) P (T
+
|A
1
) +P (A
2
) P (T
+
|A
2
)
= 0,5.
La conclusion es que no se puede tomar ninguna decisi on con base en el
resultado del test: no sirve.
20
Si logramos tener
P (T
+
|A
1
) = 0,001; P (T
+
|A
2
) = 0,999
la situacion cambia; en tal caso resulta P (A
2
|T
+
) = 0,91, mas aceptable
que la anterior.
21
22
Captulo 2
Variable Aleatoria.
2.1. Concepto de variable aleatoria
En muchos casos interesa conocer solamente alguna caracterstica numeri-
ca del resultado del experimento aleatorio. Demos dos ejemplos: (1) el ex-
perimento consiste en tirar dos dados y los posibles resultados son = {
(x, y) : x I
6
, y I
6
} donde I
k
= {1, 2, ..., k} y para cada resultado (x, y)
interesa solo la suma de los dados x +y. (2) El experimento consiste en un
tiro al blanco y el conjunto de los resultados es = { (x, y) : x R, y R},
x e y son la abcisa y ordenada del punto donde di o el tir o tomando ori-
gen (0, 0) el punto correspondiente al blanco. Aqu puede interesar solo la
distancia al blanco es decir (x
2
+y
2
)
1/2
Denici on. Sea (, A, P ) un espacio de probabilidad. Una variable
aleatoria es una funcion X : A R tal que para todo x R
X
1
((, x]) A. (2.1)
Observaciones
1.La condicion (2.1) permite calcularP({ : X() x}) = P(X
1
((, x]) .
2. El concepto de variable aleatoria es esencialmente el mismo que el fun-
ci on medible. Si (, A, ) es un espacio de medida y X un espacio topologico,
f : A X se dice medible sii para todo G A vale que f
1
(G) A.
3. Si A es el conjunto de partes de , como en el caso que sea nito o
numerable, la condici on (2.1) se cumple trivialmente.
Teorema. Sea X una variable aleatoria sobre un espacio de probabilidad
(, A, P ). Entonces vale X
1
(B) A para todo B B. (B es el conjunto
de boreleanos en R)
Demostraci on.Como por denici on X
1
((, x]) A, basta con veri-
car que
= {A R : X
1
(A) A}
23
es una algebra. Luego se tendra que (puesto que la algebra de
Borel es la m as chica que contiene a las semirectas).
Veamos que
(a) R pues
X
1
(R) = A.
(b) Si A , entonces A
c
. Como X
1
(A) A, se tendra que
X
1
(A
c
) =

X
1
(A)

c
A.
(c) Sea {A
n
}
nN
. Luego X
1
(A
n
) A para todo n y como A es
un -algebra se tendr a que =
S
nN
X
1
(A
n
) A. Luego
X
1

[
nN
A
n
!
=
[
nN
X
1
(A
n
) A.
(a), (b) y (c) prueban que es un -algebra
2.2. Espacio de probabilidad asociado a una vari-
able aleatoria
Sea un espacio de probabilidad (, A, P ) y sea X : R una variable
aleatoria. Asociada a esta variable podemos denir un nuevo espacio de
probabilidad (R, B, P
X
) donde para todo B B se dene
P
X
(B) = P

X
1
(B)

.
Observese que P esta denido sobre X
1
(B) ya que este conjunto esta en
A. Vamos a mostrar que P
X
es efectivamente una probabilidad. La funci on
P
X
se denomina probabilidad inducida por X o distribuci o de X.
Proposicion. P
X
es efectivamente una funci on de probabilidad.
Demostraci on.
(a)
P
X
(R) = P

X
1
(R)

= P () = 1.
24
(b) Si {B
i
}
iN
B es una sucesi on disjunta dos a dos, entonces
P
X

]
iN
B
i
!
= P

X
1

]
iN
B
i
!!
= P

]
iN
X
1
(B
i
)
!
=
=
X
iN
P

X
1
(B
i
)

=
X
iN
P
X
((B
i
)) . 2
Consideraremos las funciones medibles g : R R con el algebra de
Borel
Denici on. Una funcion
g : R R
se dice medible Borel sii para todo x R
g
1
((, x]) B
Observaciones.
1. Trabajaremos en este curso con funciones medibles Borel, de manera
que a veces nos referiremos a ellas simplemente con el nombre de medibles.
2. Si B B resultar a g
1
(B) B. Este resultado se demuestra como
el an alogo para variables aleatorias.
3. Considerando a R como un espacio muestral = R y A = B se ve
que g es medible Borel es equivalente a que g es una variable aleatoria

Ejercicio 1. Demostrar los siguientes resultados


1. Si g : R R es continua entonces g es medible.
2. Si g : R R es monotona entonces g es medible.
3. Si B es boreliano, su funci on caracterstica I
B
es medible
4. Si {f
n
}
n1
es una sucesion de funciones medibles entonces
f (x) = inf
nN
{f (x)},
f (x) = sup
nN
{f (x)}
son medibles. Tambien son medibles
f (x) = lmf
n
(x) ,
f (x) = lmf
n
(x) .
En particular si existe el lmite puntual
f (x) = lm
n
f
n
(x)
25
es medible.
Observaci on.
El siguiente teorema tiene importancia te orico y practica. La composi-
ci on de una variable aleatoria con una funcion medible es una variable
aleatoria.
Teorema. Si g : R R es medible y X : R es una variable
aleatoria, entonces g (X) : R es tambien una variable aleatoria
Demostraci on
Basta con observar que dado B B
[g (X)]
1
(B) = X
1
_
_
g
1
(B)
| {z }
B
_
_
Como consecuencia de este teorema si g es continua y X es una variable
aleatoria resulta g(X) tambien una variable aleatoria. Por ejemplo si X
es una variable aleatoria, entonces sin(X) , cos (X) , exp(X) son variables
aleatorias/
Proposicion.
Si X, Y son variables aleatorias entonces
1. X +Y ; XY son variables aleatorias
2 Si P (Y 6= 0) = 1 entonces X/Y es una v.a
La demostraciones de 1 y 2 se veran mas adelante/
2.3. Funcion de distribucion de una variable aleato-
ria.
Denici on. Sea X una v.a. Se dene la funci on de distribucion asociada
a X como la funci on F
X
: R [0, 1] dada por
F
X
(x) = P
X
((, x]) = P

X
1
((, x])

.
Observaci on.
Como veremos la importancia de F
X
es que caracteriza la distribuci on
de X. Es decir F
X
determina el valor de P
X
(B) para todo B B
Sea X una variable aleatoria sobre (, A, P ) y sea F
X
su funcion de
distribucion. Entonces se cumplen las siguientes propiedades
P1. F
X
es monotona no decreciente, es decir x
1
< x
2
implica F
X
(x
1
)
F
X
(x
2
) .
P2. lm
x
F
X
(x) = 1.
P3.lm
x
F
X
(x) = 0.
26
P4. F
X
es continua a derecha en todo punto de R.
Demostraci on.
P1. Si x < x
0
entonces
(, x] (, x
0
],
y por lo tanto
F
X
(x) = P ((, x]) P

(, x
0
]

= F
X

x
0

.
P2. En primer lugar veamos que
lm
n
F
X
(n) = 1.
Consideremos la sucesion monotona creciente de conjuntos
A
n
= (, n] n N.
Entonces
[
nN
A
n
= R.
Luego de acuerdo a la propiedad para sucesiones crecientes de eventos
lm
n
F
X
(n) = lm
n
P
X
(A
n
) = P
X

[
nN
A
n
!
= P
X
(R) = 1.
Ahora veamos que efectivamente lm
n
F
X
(x) = 1, esto es para todo
> 0 existe x
0
> 0 tal que si x > x
0
entonces se cumple |F
X
(x) 1| < . O
equivalentemente
1 < F
X
(x) < 1 +.
Por ser una probabilidad evidentemente se cumple que para cualquier
> 0, F
X
(x) < + 1. Por lo tanto solo tenemos que mostrar que existe
x
0
> 0 tal que si x > x
0
entonces se cumple
1 < F
X
(x) .
Sabemos que dado > 0 existe un n
0
N tal que si n > n
0
entonces
1 < F
X
(n) .
Entonces tomando x
0
= n
0
y teniendo en cuenta la monotonia de F
X
,
se tendr a que si x > x
0
= n
0
entonces
1 < F
X
(n
0
) F
X
(x) . 2
P3. Se trata esencialmente de la misma demostraci on.
27
En primer lugar se ve que
lm
n
F
X
(n) = 0.
Luego se considera la sucesion monotona decreciente que converge a
A
n
= (, n],
y se obtiene
lm
n
P
X
(A
n
) = 0.
Luego se procede como en P12
P4. Queremos ver que F
X
es continua a derecha en cualquier punto
x
0
R. Es decir, dado > 0 existe > 0 tal que si
0 < x x
0
<
entonces
F
X
(x
0
) F
X
(x) F
X
(x
0
) +.
La primer inecuaci on es v alidad siempre: como x
0
< x entonces F
X
(x
0
)
F
X
(x
0
) F
X
(x). Basta entonces probar que F
X
(x) F
X
(x
0
) +.
Consideremos la sucesion decreciente de conjuntos
A
n
= (, x
0
+
1
n
]
que satisface
\
nN
A
n
= (, x
0
].
Entonces
lm
n
F
X

x
0
+
1
n

= lm
n
P
X
(A
n
) = P
X

\
nN
A
n
!
= P
X
((, x
0
]) = F
X
(x
0
)
Luego existe n
0
N tal que si n > n
0
entonces
F
X

x
0
+
1
n

F
X
(x
0
) +
Si tomamos <
1
n
0
entonces si 0 < x x
0
<
F
X
(x) F
X
(x
0
+) F
X

x
0
+
1
n
0

F
X
(x
0
) +.2
28
Lema. Sea (x
n
)
nN
una sucesion de numeros reales estrictamente cre-
ciente que converge a x
0
.
Entonces
lm
n
F
X
(x
n
) = F
X
(x
0
) P
X
({x
0
}).
Demostraci on. La sucesi on de intervalos A
n
= (; x
n
] es creciente y
[
nN
A
n
= (, x
0
)
Entonces
lm
n
F
X
(x
n
) = lm
n
P
X
(A
n
) = P
X
((, x
0
))
= P
X
((, x
0
]) P
X
({x
0
})
= F
X
(x
0
) P
X
({x
0
}) .2
Teorema. Para todo x
0
R se tiene que
lm
xx
0

F
X
(x) = F
X
(x
0
) P
X
({x
0
}) .
Demostraci on.
Se aplica el lema anterior utilizando la misma tecnica usada para probar
P2 o P3.
Corolario.
F
X
es continua a izquierda en x
0
sii P
X
({x
0
}) = 0.
Demostraci on
Inmediato a partir del teorema.
Teorema. Sea F
X
la funci on de distribucion de una v.a X. Entonces el
conjunto de discontinuidades
{x R : F
X
es discontinua en x}.
es a lo sumo numerable.
Demostraci on.
Consideremos
A = {x : P
X
({x}) > 0},
y para todo k N sea
A
k
=

x : P
X
({x}) >
1
k

.
Entonces es f acil ver que

[
k=1
A
k
= A.
29
Luego para demostrar el teorema bastara probar que para k N se tiene
que #A
k
< . En efecto, supongamos que para alg un k
0
existen innitos
puntos {x
n
}
n1
tal que para todo n N se cumpla P
X
({x
n
}) >
1
k
0
.
Entonces si B =
U
iN
{x
i
} se tendr a
P
X
(B) =

X
i=1
P
X
({x
i
}) >

X
i=1
1
k
0
= ,
lo que es un absurdo 2.
Veremos ahora que toda funcion con las propiedades P1, P2, P3 y P4
dene una funcion de distribucion para cierta ariable aleatoria X (no unica).
Teorema de Extensi on. Sea F : R [0, 1] una funcion con las
propiedades P1-P4 Luego existe una unica probabilidad P sobre (R, B)
tal que para todo x R se tiene
P ((, x]) = F
X
(x) .
Demostraci on
No se demostrar a en este curso. Hay que utilizar teora de la medida.
Veremos ahora algunas consecuencias del Teorema de Extension.
Corolario 1.
Si X y X

son variables aleatorias con distribuciones F


X
, F
X
tal que
F
X
= F
X
entonces para todo B se tendr a
P
X
(B) = P
X
(B)
Demostraci on.
Es consecuencia de la unicidad del teorema de extensi on.
Corolario 2.
Si F satisface P1, P2, P3 y P4 entonces existe una variable aleatoria X
(no necesariamente unica) tal que F = F
X
.
Demostraci on.
De acuerdo al teorema de extensi on se puede denir un espacio de
probabilidad (R, , P) de forma tal que para todo x R
F (x) = P ((, x]) .
Ahora consideramos la funcion identidad X : R R denida como
X (x) = x para todo x R. Entonces se cumple que
F
X
(x) = P
X
((, x]) = P({y : X(y) x) = P((, x]) = F (x) . 2
30
Captulo 3
Variables aleatorias
discretas y continuas.
Existen varios tipos de variables aleatorias. En este curso solo estudiare-
mos con detalle las discretas y las (absolutamente) continuas.
3.1. Variables aleatorias discretas.
Denici on. Se dice que una v.a. X es discreta sii existe A R nito o
numerable tal que P
X
(A) = 1
Observaci on. Ese conjunto A no tiene porque ser unico. Si se le agrega
un conjunto nito o numerable de probabilidad cero, seguira teniendo esta
propiedad. A continuacion vamos a encontrar el conjunto m as chico que
tiene esta propiedad.V
Denici on. Sea X una variable aleatoria discreta.. Se dene el rango
del X como los puntos de discontinuidad de la funcion de distribucion, es
decir por
R
X
= {x : P
X
({x}) > 0}.
Teorema. Sea X una variable aleatoria discreta. Luego (i)P
X
(R
X
) =
1,(ii) Si P
X
(A) = 1, entonces R
X
A
R
X
A.
Demostraci on
(i) Sea A un conjunto a lo sumo numerable tal que P
X
(A) = 1
A = R
X
]
(AR
X
) .
Entonces
1 = P
X
(A) = P
X

R
X
]
(AR
X
)

=
P
X
(R
X
) +P
X
(AR
X
) .
31
Luego basta probar que
P
X
(AR
X
) = 0. (3.1)
El conjunto B = A R
X
es nito o innito numerable. Ademas para
todo x B se tiene que P
X
({x}) = 0. Luego como
B =
]
xB
{x},
resulta que P(B) =
P
xB
P
X
({x}) = 0. Luego hemos demostrado (3.1).
(ii) Supongamos que exista x
0
R
X
tal que x
0
/ A entonces consider-
amos
e
A = A
U
{x
0
} y se obtiene que
P
X
(
e
A) = P
X
(A) +P
X
({x
0
}) > P
X
(A) = 1,
lo cual es un absurdo 2
La importancia de R
X
reside en el hecho de que para calcular la proba-
bilidad de un evento B solo interesan los puntos de B que est an en R
X
. En
este sentido se dice que la probabilidad se concentra en R
X
y que cada x en
el que la probabilidad es mayor que cero es un atomo.
Corolario. Para todo B B se tiene
P
X
(B) = P
X
(R
X
B) .
Demostraci on.
Escribiendo a
B = (R
X
B)
]
(B R
X
) ,
y tomando probabilidad en ambos miembros se obtiene
P
X
(B) = P
X
(R
X
B) +P
X
(B R
X
)
Pero
B R
X
(R
X
)
c
,
de manera que
P (B R
X
) = 0,
y se obtiene el resultado.
Denici on. Sea X una v.a.d. Se dene la funcion densidad de probabil-
idad asociada a la variable X como la funcion
p
X
: R [0, 1]
tal que
p
X
(x) = P
X
({x})
32
Observaci on.
La funcion de densidad satisface
p
X
(x) > 0 sii x R
X
y determina totalmente la probabilidad P
X
.
Para ver esto probaremos
Teorema Si B B entonces
P
X
(B) =
X
xBR
X
p
X
(x)
Demostraci on
B R
X
=
]
xBR
X
{x}
Como B R
X
es nito o numerable se tiene
P
X
(B) = P
X
(R
X
B) =
X
xBR
X
p
X
(x) 2.
3.2. Ejemplos de distribuciones discretas.
3.2.1. Distribucion Binomial.
Se repite n veces un experimento que puede dar lugar a dos resultados:
exito o fracaso. Se supone que todos los experimentos son independientes
y tienen la misma probabilidad de exito La distribucion binomial corre-
spondiente a n repeticiones con probabilidad de exito es la distribucion
de la variable aleatoria X denada como el n umero total de exitos. La de-
notaremos con Bi(, n))
El rango de esta variable es R
X
= {0, 1, ..., n}.
Obtendremos seguidamente la funcion de densidad de probabilidad de
esta variable. Tomaremos como espacio muestral
= {(
1
,
2
, ...,
n
) :
i
{0, 1}},
donde
i
= 1 indicar a que el i-esimo experimento result o exito y
i
= 0 que
fue fracaso
El espacio muestral , es nito y por lo tanto podemos tomar la alge-
bra como el conjunto de partes de .
Con esta notacion la v.a. se escribe
X ((
1
,
2
, ...,
n
)) =
n
X
i=1

i
.
33
El evento que {X = x} esta dado por
A
x
= {(
1
,
2
, ...,
n
) :
n
X
i=1

i
= x}.
En primer lugar determinamos la cantidad de elementos del conjunto
A
x
. Claramente se deben seleccionar x lugares entre los n posibles, para
distribuir los unos, de manera que
#(A
x
) =

n
x

.
Observaci on.
El espacio muestral no es equiprobable, por lo que la probabilidad no se
determina ocn el esquema casos favorables / casos igualmente posibles.
Para un experimento cualquiera se tiene que si = 0 entonces P () =
1 y si = 1 entonces P () = . Esto puede escribirse de manera mas
compacta de la siguiente manera
P () =

(1 )
1
.
En primer lugar calculemos la probabilidad de un elemento arbitrario
del espacio muestral. Teniendo en cuenta la independencia de los sucesos y
que la ocurrencia de (
1
,
2
, ...,
n
) involucra una interseccion de eventos se
tiene que
P ((
1
,
2
, ...,
n
)) =
n
i=1
P (
i
) =
=
n
i=1

i
(1 )
1
i
=
=
P
n
i=1

i
(1 )
n
P
n
i=1

i
.
Ahora si = (
1
,
2
, ...,
n
) A
x
entonces
P
n
i=1

i
= x y queda que la
probabilidad de ocurrencia cualquier elemento de A
x
es
p
X
() = p
X
((
1
,
2
, ...,
n
)) =
x
(1 )
nx
En denitiva como
A
x
=
]
e A
x
{e }
entonces
p
X
(x) = P ({w : X(w) = x}) = P (A) =
X
Ax
p () =
= #(A
x
)
x
(1 )
nx
=

n
x

x
(1 )
nx
34
3.2.2. Binomial Negativa (o Distribucion de Pascal)
Se tiene el experimento cuyo resultado es exito con probabilidad como
en el caso aso de la distribuci on binomial. Ahora se repite el experimento en
forma independiente hasta que ocurran k exitos. En este caso los par amet-
ros son : probabilidad de exito y k : el n umero de exitos buscado.
Llamaremos X a la variable aleatoria denida como el n umero de experi-
mentos que hubo que realizar para obtener los k exitos. La distribucion de
esta variable se denomina binomial negatica o de Pascal y se la denotar a con
BN(, k). Ahora el rango es innito numerable
R
X
= {m N : m k}
Para determinar la distribucion introducimos las variables aleatorias Z
i
para todo i N denidas por
Z
i
=

1 si el i-esimo experimento es exito


0 si el i-esimo experimento es fracaso
Estas variables se toman independientes. Luego denimos las variables
a
Y
i
=
i
X
j=1
Z
j
Claramente Y
i
cuenta la cantidad de exitos que se alcanzaron en los primeros
i experimentos. Luego su distribuci on es Bi(, i)
Ahora el evento{X = x} o sea la cantidad de experimentos necesarios
para alcanzar k exitos es x puede escribirse como una intersecci on de dos
eventos
{X = x} = {Y
x1
= k 1} {Z
k
= 1]
Como los dos eventos del lado derecho de la ultima ecuacion son inde-
pendientes y usando el hecho que Y
x1
es Bi(, x 1) resulta
p
X
(x) = P ({X = x}) = P ({Y
x1
= k 1}) P ({Z
k
= 1}) =
=

x 1
k 1

k1
(1 )
xk
=
=

x 1
k 1

k
(1 )
xk
con x k.
3.2.3. Distribucion geometrica.
Se llama distribucion geometica a la BN(, k), con k = 1. Luego es
la distribucion de la variable aleatoria X defnida como el n umero de
35
experimentos necesarios para alacanzar el primer exito. A esta distribuci on
la denotarenos como G().
El rango de los valores posibles para la v.a. X es
R
X
= {1, 2, ..., n, ...}
Reemplazando k = 1 en la distribuci on BN se obtiene
p
X
(x) =

x 1
0

(1 )
x1
= (1 )
x1
Se verica que

X
x=1
p
X
(x) =

X
x=1
(1 )
x1
=

X
x=1
(1 )
x1
=
=

X
j=0
(1 )
j
=
1
1 (1 )
= 1.
3.2.4. Distribucion hipergeometrica.
Podemos pensar en el esquema de una urna que contiene N bolillas de las
cuales D son negras y ND blancas. Se extraen secuencialmente n bolillas
y se dene la variable X como el n umero de bolilas negras extraidas. Si
la bolillas obtenida es repuesta en la urna antes de obtener la siguiente,
ekl resultado de cada extraccion es independiente de las anteriores, ya que
esos resultados no modican la composicion de la urna. Luego en este caso
X tendra distribucon Bi(, n) con = D/N, ya que este n umero es la
probabilidad de sacar una negra.
Si despues de cada extraccion la bolilla obtenida no se repone, no hay
independencia en los resultados de las extracciones y la distribuci on de X
se denomina hipergeometrica. La denotaremos por H(N, D, n).
Estudiemos su rango de esta distribucion . Por un lado claramente se
observa que no se puede sacar un n umero negativo de negras, ni tampoco
mas veces que la cantidad total de bolillas extraidas, por lo tanto:
0 X n.
Por otro lado, claramente a lo sumo se pueden extraer todas las negras
X D.
Tambien debemos observar que el numero de blancas debe ser menor que
su n umero total
n X N D.
36
En denitiva
R
X
= {x N : m ax (0; n N +D) x mn(n, D)}.
Podemos pensar que las D bolillas negras son numeradas de 1 a D, y las
blancas de D + 1 a N. Luego si denotamos
I
N
= {x N : 1 x N},
el conjunto de todos eventos posibles es
= {A I
N
: #A = n}.
Es decir que los posibles resultados del experimentos son todos los sub-
conjuntos de I
N
con cardinal n. Como todos estos subconjuntos tendr an la
misma probabilidad de ser extraidos, estaremos en un caso de resultados
equiprobables. El cardinal de es

N
n

.
Consideremos el evento {X = x}, es decir, los casos en los que de las n
extracciones x bolillas sean negras.
Para obtener el cardinal de {X = x} podemos pensar de la siguiente
manera. En primer instancia, escogemos todos los subconjuntos de x bolas
negras entre las D posibles, esto nos da

D
x

.
Para cada subconjunto de x negras hay

N D
n x

formas de elegir las restantes n x blancas. Luego


#{X = x} =

D
x

N D
n x

,
y por lo tanto
p
X
(x) =
#A
x
#
=

D
x

N D
n x

N
n
.
37
Ejercicio.
En el contexto de las urnas de la situacion anterior sea n N jo y
consideremos una sucesi on de distribuciones hipergeometricas H(N, D
N
, n)
tales que
lm
N
D
N
N
= .
Entonces si p
H
N
es la densidad de probabilidad de una distribucion H(N, D
N
, n)
y p
B
de una Bi(, n),se tiene
lm
N
p
H
(x) = p
B
(x) .
Es decir para N sucientemente grande la distribucion H(N, D
N
, n) se
puede aproximar por la distribucion Bi(, n) . Heorsticamente, este resul-
tado se debe a que cuando n es peque no con respecto a N,la reposici on o
no de las bolillas extraidas no cambia substancialmente la composicion de
la urna.
3.2.5. Distribucion de Poisson
Un proceso de Poisson se presenta cuanto se trata de registrar el n umero
de veces que ocuurre cierto evento en un lapso determinado de tiempo. Por
ejemplo
a) Se desea registrar el n umero de clientes que entran en un determiando
banco a una determinado lapso de tiempo el mes de octubre del corriente
a no.
b) El n umero de accidentes automovilsticos que ocurren en la ciudad de
Bs. As. en cada mes.
c) El n umero total de llamadas telefonicas que llegan a una una central
tefonica entre las 15hs y 16hs de los das habiles.
Estos procesos se basan en un conjunto de supuestos que trataremos con
mayor detalle, m as adelante.
Por ahora solo indicamos su funcion de densidad. Par cada > 0, se
dene la distribucion de Poisson con parametro que simbolizaremos por
P() por la siguiente densidad de probabilidad
p
X
(x) = e

x
x!
para x N
0
,
donde N
0
es el conjunto de enteros no negativos
Es claro que

X
x=0
p
X
(x) =

X
x=0
e

x
x!
= e


X
x=0

x
x!
= e

= e
0
= 1.
38
3.2.6. Graco de una funcion de distribucion asociada a una
variable aleatoria discreta
Supongamos que el rango de X sea nito R
X
= {x
0
, x
1
, ..., x
n
}. En tal
caso la funci on de distribucion F
X
es una funcion no decreciente escalonada,
en los puntos de probabilidad positiva, x
j
, 0 j n.
Sea
c
i
=
i
X
j=0
p
X
(x
j
) ; 0 i n.
Luego se tendr a
F
X
(x) =
0 si x (, x
0
)
c
i
si x [x
i
, x
i+1
) para 1 i n 1
1 si x [x
n
, )
Ejercicio gracar la situacion.
3.3. Variables aleatorias absolutamente continuas.
Denici on. Se dice que X es una variable aleatoria es continua sii F
X
es continua para todo x R.
Observaci on.Esto es equivalente a pedir que la probabilidad en todo
punto es cero.
Denici on. Se dice que F
X
es absolutamente continua sii existe una
funcion f
X
: R R
0
tal que f
X
es integrable Riemann (integrable
Lebesgue) sobre R y para todo x R se tiene
F
X
(x) =
Z
x

f
X
(t) dt.
La funcion f
X
se denomina funcion de densidad de la probabilidad aso-
ciada a X.
Tendremos las siguientes propiedades.
P1. Si f
X
es una funcion de densidad de probabilidad para una variable
aleatoria X entonces
Z
+

f
X
(t) dt = lm
x
Z
x

f
X
(t) dt =
= lm
x
F
X
(x) = 1.
39
Recprocamente si f 0 es integrable Riemann sobre R y cumple que
Z
+

f
X
(t) dt = 1,
entonces deniendo
F (x) =
Z
x

f (t) dt
se obtiene una funci on que resulta ser de distribucion para alguna variable
aleatoria X. Esto se justica puesto que una funci on integral de una funci on
no negativa satisface las propiedades P1-P4 que caracterizan a una funcion
de distribucion (ver teorema de extension).
P2. Supongamos que F
X
es absolutamente continua. Entonces
P
X
((a, b]) = P
X
((, b]) P
X
((, a]) =
= F
X
(b) F
X
(a) =
Z
b

f
X
(t) dt
Z
a

f
X
(t) dt =
=
Z
b
a
f
X
(t) dt.
P3. Si F
X
es absolutamente continuta entonces es continua.
Lo de,ostraremos para el caso que f
X
es una funcion acotada, es decir
existe M > 0 tal que para todo x R se tiene f
X
(x) M.
Sea > 0 y x R entonces
P
X
({x}) P ((x , x +]) =
Z
x+
x
f
X
(t) dt M2/
Ahora haciendo que 0 se obtiene P
X
({x}) = 0 y con ello que F
X
es
continua.
El mismo resultado se puede probar para una funcion de densidad f
X
no acotada, integrable Riemann sobre R.
El nombre densidad nos recuerda la cantidad de masa por unidad de
longitud, area o volumen seg un el caso.
Por similitud se puede decir que f
X
(x)indica la probabilidad por unidad
de longitud en las cercanias del punto x. M as precisamente podemos enun-
ciar el siguiente Teorema
Teorema. Sea f
X
una funcion de densidad continua en x
0
entonces
lm
h0
P
X
([x
0
h; x
0
+h])
2h
= lm
h0
1
2h
Z
x
0
+h
x
0
h
f (t) dt = f
X
(x
0
)
Demostraci on
Sea
M
h
= m ax{f (x) : x [x
0
h; x
0
+h]}
40
y
m
h
= mn{f (x) : x [x
0
h; x
0
+h]}.
Por continuidad
f (x
0
) = lm
h0
M
h
= lm
h0
m
h
. (3.2)
Por otro lado valen las desigualdades
2hm
h

Z
x
0
+h
x
0
h
f (t) dt 2hM
h
,
y dividiendo por 2h en todos los miembros queda:
m
h

1
2h
Z
x
0
+h
x
0
h
f (t) dt M
h
.
Luego, teniendo en cuenta (3.2) y pasando al lmite cuando h 0 se
obtiene
f (x
0
) lm
h0
P
X
([x
0
h; x
0
+h])
2h
f (x
0
) ,
de donde se deduce el Teorema.2
Teorema. Sea f
X
una funcion de densidad continua en x
0
y F
X
la
distribucion asociada. Entonces f
X
es derivable en x
0
y
F
0
X
(x
0
) = f (x
0
)
Demostraci on.
Analoga a la anterior.
Comentarios vinculados a teora de la medida.
1. Una denicion alternativa de la absoluta continuidad, es esta:
Se dice que F : R R es absolutamente continua sii para todo > 0
existe > 0 tal que para toda sucesi on
x
0
< y
0
< x
1
< y
1
< ... < x
n
< y
n
que cumple
n
X
i=0
(y
i
x
i
) < ,
se tiene que
n
X
i=0
|F (y
i
) F (x
i
)| < .
En este sentido toda funcion absolutamente continua es uniformemente
continua y en consecuencia continua. Ademas resulta ser de variacion aco-
tada sobre todo intervalo acotado. Si f es integrable Lebesgue (Riemann)
entonces
F (x) =
Z
x

f (t) dt
41
es absolutamente continua.
Es decir (con esta denicion) resulta que si F es de variacion acotada y
continua a derecha entonces
F es absolutamente continua sii existe f integrable tal que
F (x) =
Z
x

f (t) dt.
2. Tambien se dice que la funci on integral es absolutamente continua
como funci on de conjunto.
Dada f integrable denamos
T (A) =
Z
A
f (x) dx . (3.3)
Se comprueba que la integral de Lebesgue (Riemann) satisface la sigu-
iente propiedad.
Si f es una funcion integrable Lebesgue y sea la medida de Lebesgue
sobre R entonces para todo > 0 existe > 0 tal que si B es un boreliano
que satisface (B) < entonces
|T (B)| =

Z
B
f (x) dx

< .
T(B) dene una probabilidad si f es una funci on de densidad, es decir
si f(x) 0 y F(R) = 1.
3.4. Ejemplos de distribuciones continuas
3.4.1. Distribucion uniforme en un intervalo [a; b] : U (a, b).
Consideremos
f
X
=

k si x [a; b]
0 si x / [a; b] .
con k =
1
b a
> 0. Claramente
Z

f
X
(x)dx =
Z
b
a
kdx =
k
b a
= 1.
La funcion distribucion asociada es F
X
: R [0, 1] es
F
X
(x) =
_

_
0 si x (, a)
x a
b a
si x [a; b)
1 si x (b, )
42
Claramente no existe ninguna distribuci on que sea uniforme sobre toda
la recta, puesto que al ser constante la densidad no resultaria integrable en
R.
En particular consideremos la distribucion uniforme U (0, 1)
f
X
=

1 si x [a; b]
0 si x / [a; b] .
La funcion distribucion asociada
F
X
: R R
0
es en este caso
F
X
(x) =
_
_
_
0 si x (, 0]
x si x (0, 1]
1 si x (1, ).
(3.4)
Observaci on.
1. Es claro que (3.4) vale puesto que si x (0, 1)
F
X
(x) =
Z
x

f
X
(t) dt =
Z
0

f
X
(t) dt +
Z
x
0
f
X
(t) dt =
=
Z
x
0
1dt = 0 +x = x.
2. Sea I = (c, d) (0, 1) Cual es la probabilidad de que x (c, d)?
P
X
([c < X < d]) = F
X
(d) F
X
(c) = d c.
Es decir la distribucion nos da la medida del subconjunto, es decir su
longitud.
3. De muchas maneras diferentes pueden generarse distribuciones uni-
formes. Por ejemplo recursivamente podemos considerar dos n umeros A
1
, A
2
de ocho dgitos, y dnir A
3
por los ultimos ocho dgitos de A
2
A
1
. Luego el
primer n umero con distribuci on U(0, 1) sera
e
A
1
= A
3
10
8
.
Luego denimos A
4
por los ultimos ocho dgitos de A
3
A
2
y denimos el
segundo n umero con distribuci on uniforme U(0, 2) por
e
A
2
= A
4
10
8
.
En general si denimos A
k
por las ultimas ocho cifras de A
k1
A
k2
el
n umero k 2 con distribuci on U(0, 1) es
e
A
k2
= A
k
10
8
.
Se puede probar que los la distribuci on de los n umeros se comporta como
una variable U(0,1)
43
Generacion de distribuciones a partir de la distribucion uniforme
U(0, 1)
Vamos a ver como a partir de una variable aleatoria con distribuci on
U(0, 1) se puede generar cualquier otra variable con qualquier funci on de
distribucion.
Para esto en primer lugar necesitamos algunas deniciones. Sabemos que
una funcion de distribucion no tiene por que ser continua y mucho menos
biyectiva, de manera que en general la inversa no existe. Pero podemos
denir una funcion que tendr a propiedades an alogas.
Sea F : R [0, 1] una funcion que cumple con las propiedades P1,
P2, P3, y P4 que caracterizan una funcion de distribucion y consideremos
y (0, 1) .
Denimos
A
y
= {x R : F (x) y}.
Observaciones.
1. Puede ocurrir que exista preimagen via F del punto y : F
1
(y) 6= .
Si F es continua por Bolzano (generalizado) podemos asegurar que asume
todos los valores intermedios entre el 0 y el 1 y en consecuencia en alg un
punto x asumira el valor y.
2. Puede ocurrir tambien que no exista la preimagen. Por ejemplo si F
no es continua para algunos valores de y ocurrira que F
1
(y) = .
3. Puede ocurrir que existan innitas preimagenes. Basta con tomar una
funcion que con las propiedades de la hip otesis constante en un intervalo.
Para y igual a ese valor hay innitas preim agenes.
Sugerencia: Hacer para cada una de las situaciones un gr aco adecuado.
Teorema. Existe el nmo del conjunto A
y
.
Demostraci on. Basta probar que A
y
6= y est a acotado inferiormente.
Comencemos probando que A
y
6= .
Sabenos que F satisface P2 y por lo tanto
lm
n
F (n) = 1.
Como 0 < y < 1 existe n
0
N tal que
F (n
0
) y,
de manera que n
0
A
y
.
Ahora probaremos que A
y
esta acotado inferiormente. Por P3 se tiene
que ,
lm
n
F (n) = 0.
Como y > 0 entonces existe n
0
N tal que
F (n
0
) < y. (3.5)
44
Ahora bien si x A
y
no puede ser que n
0
> x puesto que por mono-
tonia (P1) se cumpliria
F (n
0
) F (x) y,
en contradicci on con (3.5). En denitiva se tiene que si x A
y
, entonces
n
0
x, y por lo tanto A
y
esta acotado inferiormente 2.
En virtud de la existencia y unicidad del nmo podemos denir la sigu-
iente funci on
Denici on. Dada
F : R [0, 1]
que satisface las propiedades de una funci on de distribucion P1,P2,P3 y P4
se dene F
1
: (0, 1) R por
F
1
(y) = inf A
y
.
Propiedades de la funcion F
1
.
P1. El nmo del conjunto A
y
resulta ser el mnimo
F
1
(y) = mnA
y
.
Demostraci on.
Basta con probar que F
1
(y) pertenece al conjunto A
y
, lo cual signica
que
F

F
1
(y)

y.
Por denici on de nmo existe una sucesi on (x
n
)
nN
A
y
decreciente
que converge a F
1
(y), es decir tal que
lm
n
x
n
= F
1
(y) .
Por la propiedad P4 (continuidad a derecha)
lm
n
F (x
n
) = F

F
1
(y)

.
Ahora, como para todo n N se tiene que x
n
A
y
sabemos que
F (x
n
) y,
de manera que por el teorema de la conservacion del signo
F

F
1
(y)

y, (3.6)
y por lo tanto F
1
(y) A
y
2.
P2. Se cumple que
F

F
1
(y)

y.
45
Demostraci on. Se demostro durante la demostracion de P1 en (3.6)
P3. Si F es continua entonces
F

F
1
(y)

= y.
Demostraci on.
Sabemos que F

F
1
(y)

y. Ahora supongamos que no se cumple la


igualdad, esto es que
F

F
1
(y)

> y.
Veremos que esto contradice el caracter de nmo del elemento F
1
(y) .
Tomemos un punto intermedio entre F

F
1
(y)

e y digamos y

y < y

< F

F
1
(y)

.
Por ser F continua, el teorema de Bolzano (o el teorema de los valores
intermedios) se deduce que existe x

(0, 1) tal que


F (x

) = y

.
Luego reemplazando en la inecuacion anterior se obtiene la desigualdad
y < F (x

) < F

F
1
(y)

.
Por un lado esto dice que x

A
y
y por otro teniendo en cuenta la
monotona (P1)
x

< F
1
(y) .
Esto contradice que F

F
1
(y)

sea el mnimo, absurdo. 2


P4. En general vale que
F
1
(F (x)) x.
Demostraci on.
Es claro que para todo x : x A
F(x)
puesto que naturalmente F (x)
F (x) .
Sabemos que F
1
(F (x)) es el mnimo de A
F(x)
y luego
a A
F(x)
implica F
1
(F (x)) a.
En particular si tomamos a = x A
F(x)
resulta la propiedad P4. 2
Proposicion (Caracterizaci on de A
y
como semirecta). Sea y (0, 1)
jo. Los conjuntos
A
y
= {x : F (x) y},
B
y
= {x : x F
1
(y)} = [F
1
(y) , +)
coinciden.
46
Demostraci on.
F
1
(y) = mnA
y
.
Sea x B
y
, entonces como x F
1
(y) , por la monotonia de F resulta
F (x) F

F
1
(y)

y y por lo tanto. Luego


B
y
A
y
. (3.7)
Sea ahora x / B
y
,luego x < F
1
(y) . Como F
1
(y) es el mnimo de A
y
resulta x / A
y
. Por lo tanto B
C
y
A
C
y
y luego
A
y
B
y
. (3.8)
(3.7) y (3.8) implican A
y
= B
y
.
Ejercicio 2. Probar que
F
1
es monotona no decreciente y por lo tanto medible.
Veremos ahora como a partir de una variable con distribucion U(0, 1) se
puede generar otra variable que tenga funcion de distribucion F, donde F
es cualquier funcion que cumpla las propiedades P1-P4 que caracterizan a
una funcion de distribucion.
Teorema. Sea U una variable aleatoria con distribuci on U(0, 1). Luego
si F tiene las propiedades P1-P4 que caracterizan una funcion de distribu-
ci on, se tiene que X = F
1
(U) tiene funcion de distribuci on F
Demostracion. Usando la proposicion anterior y el hecho de que F
U
(u) =
u se tiene
F
X
(x) = P
X
((, x]) = P

{F
1
(U) x}

= P ({U F (x)}) =
= F
U
(F (x)) = F (x) .
Ejercicio 3.
Sea X una variable con rango R
X
= N
0
y sea
p
j
= P
X
({x}) .
Vericar que F
1
X
es de la forma
F
1
X
(y) =

0 si 0 y p
0
i si
P
i1
j=0
p
j
< y
P
i
j=0
p
j
; i 1 .
Comprobar que el resultado anterior vale en este caso.
El siguiente lema de demostraci on inmediata es muy importante
47
Lema. Sean X y X

dos variables aleatorias tales que F


X
= F
X
(y por
lo tanto P
X
= P
X
). Consideremos una funcion g medible y consideremos
las variables aleatorias obtenidas componiendo
Z = g (X) ; Z

= g (X

) .
Entonces
F
Z
= F
Z
,
y por lo tanto P
Z
= P
Z
.
Demostraci on.
Sea B B y probemos que
P
Z
(B) = P
Z
(B) .
Esto se deduce de
P
Z
(B) = P

Z
1
(B)

= P

X
1

g
1
(B)

=
= P
X

g
1
(B)

= P
X

g
1
(B)

=
= P

(X

)
1

g
1
(B)

= P

(Z

)
1
(B)

= P
Z
(B) . 2
Ahora veamos en cierto sentido la reciproca de la observaci on 2.
Teorema. Si X es una variable aleatoria con distribucion F
X
continua
y consideramos la variable aleatoria Y = F
X
(X) entonces Y tiene distribu-
ci on U(0, 1).
Demostraci on.
Consideremos una variable aleatoria U con distribucion U(0, 1) y sea
X

= F
1
X
(U) . Sabemos que X

tiene distribuci on F
X
.
Luego por el Lema anterior las variables
Y = F
X
(X) , Y

= F
X
(X

)
tienen la misma distribuci on.
Pero
Y

= F
X
(X

) = F
X

F
1
X
(U)

,
y siendo F
X
continua por lo demostrado anteriormente se tiene F
X

F
1
X
(U)

=
U. Luego Y

tiene distribuci on U(0, 1) y por lo tanto tambien Y 2.


3.4.2. Distribucion Normal N(,
2
).
La distribucion Normal es tal vez la m as importante y sin lugar a dudas la
que se usa con mayor frecuencia, a veces de manera inadecuada sin vericar
los supuestos que la identican. Veremos m as adelante la importancia de
esta distribucion. Adelantamos sin embargo, informalmente que si {Y
n
}
nN
48
es una sucesi on de variables a independientes tales que ninguna de ellas
prevalezca sobre las otras, entonces la variable aleatoria
S
n
=
n
X
j=1
Y
j
es aproximadamente normal para n sucientemente grande.
Esta distribuci on tiene mucha aplicacion en la teora de errores, donde
se supone que el error total de medicion es la suma de errores que obedecen
a diferentes causas, y que por tanto tiene distribuci on aproximadamente
normal. La distribuci on depende de dos parametros R y
2
R
>0
.
La distribuci on normal esta Standarizada scuando los par ametros son
= 0 y
2
= 1. En este caso la funci on de densidad es
f
X
(x) = K exp

x
2
2

.
Calcularemos la constante K de forma tal que
1 =
Z
+

K exp

x
2
2

dx,
y por lo tanto
K =
1
R
+

exp

x
2
2

dx
.
Sea
I =
Z
+

exp

x
2
2

dx.
Para el c alculo de esta integral podemos usar o bien residuos (teora
de analisis complejo) o bien calcular I
2
como integral doble a traves de un
cambio de variable a corrdenadas polares. Optamos por la segunda forma
I
2
=
Z
+

exp

x
2
2
Z
+

exp

x
2
2

=
Z
+

Z
+

exp

x
2
2

exp

y
2
2

dxdy =
=
Z
+

Z
+

exp

x
2
+y
2

2
!
dxdy.
Ahora hacemos el cambio de variable
x(, ) = x = cos ()
y (, ) = y = sin()
x
2
+y
2
=
2
49
La transformacion del cambio de variable T (, ) = (x(, ) ; y (, )) =
( cos () , sin()) 0, 0 < 2 tiene matriz diferencial
DT (, ) =

cos () sin()
sin() cos ()
.

Entonces su Jacobiano
J (, ) = det (DT (, )) = det

cos () sin()
sin() cos ()

=
= cos
2
() + sin
2
() = .
En denitiva |J (, ) | = y la integral resulta ser
I
2
=
Z
+

Z
+

exp

x
2
+y
2

2
!
dxdy =
=
Z
+
0
Z
2
0
exp

2
2

dd =
= 2
Z
+
0
exp

2
2

d = 2
Z
+
0
exp

2
2

d
Haciendo el cambio de variable
u =

2
2
,
du = d
se obtiene
I
2
= 2
Z
+
0
exp(u) du = 2

exp(u) |
+
0

= 2,
y por lo tanto
I =

2
Luego
f
X
(x) =
1

2
exp

x
2
2

.
3.4.3. Distribucion Exponencial
Esta distri buci on depende de un par ametro que puede tomar cualquier
n umero real positivo. Su funcion de densidad es
f(x) =
e
x
si x 0
0 si x < 0.
50
Haciendo la transformaci on y = x, dy = dx se obtiene
Z

f(x)dx =
Z

0
e
x
dx =
Z

0
e
y
dy
= [e
y
]

0
= 0 + 1 = 1.
Se deja como ejercicio vericar que la correspondiente funci on de distribucion
es
F(x) =

1 e
x
si x 0
0 si x < 0.
(3.9)
La distribucion exponencial con par ametro ser a denotada por E().
Esta distribuci on aparece generalmente cuando se trata de estudiar la
durabilidad de mecanismo bajo el supuesto de que el sistema no se desgasta
signicativamente a lo largo del tiempo. Como ejemplos suelen citarse la
duraci on de una lampara electrica. En este caso existe un cierto desgaste
propio de la l ampara y su distribuci on no es exactamente exponencial. Esta
distribucion es mas adecuada para modelar los mecanismos electr onicos, ya
que no tienen practicamente desgaste.
Para precisar el concepto de desgaste decimos que la distribuci on de X
no tiene desgaste cuando
P (X a +b|X a) = P (X b) ,
donde 0 < a, b.
Esto signica que la probabilidad de que llegue a durar hasta el tiempo
a + b, dado que ha llegado hasta el tiempo a, es igual a la probabilidad de
que halla durado hasta el tiempo b. Es decir el proceso no tiene memoria
del tiempo que estuvo funcionando (no recuerda que tan viejo es) y por
tanto, mientras funciona lo hace como nuevo .
Decimos por el contrario que hay desgaste si
P (X a +b|X a)
es una funci on decreciente de a.
Vamos a mostrar que la propiedad del falta de desgaste caracteriza a la
distribucion exponencial. Esto signica que la unicas distribuciones contin-
uas y no negativas que tienen la propiedad de falta de desgaste son las
la exponenciales.
Como {X a +b} {X a} = {X a +b} resulta que
P (X a +b|X a) =
P ({X a +b} {X a})
P ([X a])
=
P ({X a +b})
P ({X a})
.
Por lo tanto la propiedad de falta de desgaste se puede escribir como
P (X a +b)
P (X a)
= P (X b) ,
51
o equivalentemente
P (X a +b) = P (X b) P (X a) . (3.10)
Si X tiene distribucion continua de P ([X a]) = F
X
(a) resulta
1 F
X
(a) = P ([X > a]) = P ([X a]) .
Entonces denimos
G
X
(a) = 1 F
X
(a) ,
y como la propiededad de falta de memoria es equivalente 3.10, esta se
puede escribir tambien como
G
X
(a +b) = G
X
(a) G
X
(b) (3.11)
para todo a 0, b 0.
En el caso de que X tenga distibuci on exponencial por (3.9) se tiene
G
X
(x) = e
x
para todo x 0. El siguiente Teorema mustra que la propiedad de falta de
memoria caracteriza las distribuiones exponenciales
Teorema. Sea X una funcion distribucion continua con valores no neg-
ativos. Luego la propiedad de falta de memoria dada por (3.11) se cumple
si y solo G
X
(x) = e
x
es decir si tiene distribucion exponencial.
Demostraci on. Supongamos primero que G
X
(x) = e
x
. Probaremos que
(3.11) se cumple. En efecto
G
X
(a +b) = e
(a+b)
= e
a+(b)
= e
a
e
b
= G
X
(a) G
X
(b) .
Supongamos ahora que (3.11) se cumple. Probaremos que G
X
(x) =
e
x
para alg un > 0.
En primer lugar veamos que para todo n, dados a
1
0, ..., a
n
0
entonces
G
X

n
X
i=1
a
i
!
=
n
Y
i=1
G
X
(a
i
) .
Probaremos esta proposicion por inducci on. Claramente vale para n = 2
por hip[otesis.
Supongamos que vale para n y probemos que vale para n + 1.
G
X

n+1
X
i=1
a
i
!
= G
X

n
X
i=1
a
i
+a
n+1
!
= G
X

n
X
i=1
a
i
!
G
x
(a
n+1
) =
=

n
Y
i=1
G
X
(a
i
)
!
G
X
(a
n+1
) =
n+1
Y
i=1
G
X
(a
i
) .
52
Ahora probaremos que para todo a 0 vale que
G
X
(a) = [G
X
(1)]
a
.
La estrategia es primero probarlo para un entero no negativo, luego para
los racionales y por ultimo para un n umero real no negativo.
Sea n N entonces
G
X
(n) = G
X
_
_
1 + 1 +... + 1
| {z }
n sumandos
_
_
= [G
X
(1)]
n
.
Ahora sea
r
n
Q entonces
G
X
(r) = G
X

n
r
n

= G
X
_
_
_
_
r
n
+... +
r
n
| {z }
n sumandos
_
_
_
_
=
= G
X

r
n

n
.
Entonces
G
X

r
n

= [G
X
(r)]
1
n
= [(G
X
(1))
r
]
1
n
= [G
X
(1)]
r
n
.
Por ultimo consideremos a R
0
. Elijamos una sucesion (r
n
)
nN
Q
tal que r
n
a. Siendo G
X
continua resulta
G
X
(a) = lm
n
G
X
(r
n
) = lm
n
(G
X
(1))
rn
= (G
X
(1))
lmnrn
= [G
X
(1)]
a
.
Ahora pongamos
= log (G
X
(1)) ,
de manera que
G
X
(1) = e

En denitiva podemos escribir


G
X
(a) = [G
X
(1)]
a
= e
a
,
y el teorema queda probado.
53
54
Captulo 4
Vectores aleatorios.
Generalmente interesan m as de una caracterstica de una poblaci on. Por
ejemplo podemos estar interesados en estudiar el perl biologico de los
alumnos de 10 a nos de una determniada escuela. Podramos considerar que el
perl se compone de la talla, el peso, presi on sanguinea, frecuencia cardaca,
capacidad respiratoria. Estan en juego cinco variables aleatorias, que deber-
an tratarse simultaneamente. Esto motiva la siguiente denici on un vector
aleatorio.
Denici on. Sea (, A, P) un espacio de probabilidad. Se dice que
X =(X
1
, X
2
, ..., X
k
) es un vector aleatorio de dimensi on k si para cada
j = 1, 2, ..., k se tiene que X
j
: R es una variable aleatoria.
Observese que si X = (X
1
, ..., X
k
) es un vector aleatorio de dimen-
si on k , entonces tambien puede ser interpretado como una funci on X :
R
k
. En efecto dado , el correspondiente valor de la funci on es
X() = (X
1
(), ..., X
k
()) R
k
.
Teorema Para todo x =(x
1
, x
2
, ..., x
k
) R
k
se tendr a
X
1
((, x
1
] (, x
2
] ... (, x
k
]) A.
Demostraci on.
Sea B = (, x
1
] (, x
2
] ... (, x
k
].
Entonces
X
1
(B) = { : X() B}
=
k
\
i=1
{ : X
i
() (, x
i
]} =
=
k
\
i=1
X
1
i
((, x
i
]) .
Luego como para todo i se tiene que X
1
i
((, x
i
]) A y A es un
algebra se concluye que X
1
(B) A.
55
Observaciones.
1. Recordemos que B
k
denota la algebra generada por los conjuntos
de R
k
de la forma
A
(x
1
,x
2
,...,x
k
)
= (, x
1
] (, x
2
] ... (, x
k
]
En R
2
es facul vericar visualmente que los conjuntos de la forma
(a
1
, b
1
] (a
1
, b
1
] B
2
ya que se pueden escribir de la siguiente forma
(a
1
, b
1
] (a
1
, b
1
] = A
(b
1
,b
2
)
A
(a
1
,b
2
)

A
(b
1
,a
2
)
A
(a
1
,a
2
)

(4.1)
y que diferencias de conjuntos de un algebra son conjuntos del algebra.
Es interesante tambien obsevar que
A
(a
1
,b
2
)
A
(b
1
,b
2
)
(4.2)
A
(a
1
,a
2
)
A
(b
1
,a
2
)
(4.3)
y

A
(b
1
,a
2
)
A
(a
1
,a
2
)

A
(b
1
,b
2
)
A
(a
1
,b
2
)
(4.4)
Ejercicio 4. Probar la siguiente
Teorema . Sea X es un vector aleatorio de dimensi on k. Entonces si
B B
k
se tiene que X
1
(B) A.
4.1. Espacio de probabilidad inducido.
Denici on. Dado el espacio de probabilidad (, A, P) y un vector
aleatorio X = (X
1
, ..., X
k
) se puede denir un nuevo espacio de probabil-
idad

R
k
, B
k
, P
X

donde dado B B
k
se dene
P
X
(B) = P

X
1
(B)

.
Ejercicio 5. Probar la siguiente.
Proposicion. P
X
es una funci on de probabilidad sobre (R
k
, B
k
). La
demostraci on es similar a la correspondiente a P
X
donde X es una variable
aleatoria
La probabilidad P
X
se denomina probabilidad inducida por el vector X
o distribuci on de X.
56
4.2. Funcion de distribuci on conjunta de un vector
aleatorio.
Dado un vector aleatorio X = (X
1
, ..., X
k
), se dene la funcion distribu-
ci on conjunta del vector X como funci on F
X
: R
k
[0; 1] denida por
F
X
(x
1
, x
2
, ..., x
k
) = P
X
((, x
1
] (, x
2
] ... (, x
k
]) =
= P

k
\
i=1
{ : X
i
() x
i
}
!
.
Propiedades de F
X
.
P1. F
X
es monotona no decreciente en cada componente.
Demostraci on. Si x
i
< x
0
i
entonces
A
(x
1
,...,x
i
,...,x
n
)
A
(x
1
,...,x
0
i
,...,x
n)
,
de manera que
F
X
((x
1
, ..., x
i
, ..., x
n
)) F
X

x
1
, ..., x
0
i
, ..., x
n

.
P2. Se tiene que
lm
:x
1
,...,x
k

F
X
(x
1
, x
2
, ..., x
k
) = 1.
Demostraci on. Sean sucesiones crecientes
{x
1i
}
iN
, {x
2i
}
iN
, ..., {x
ki
}
iN
.
Queremos probar que
lm
i+
F
X
(x
1
i
, x
2
i
, ..., x
k
i
) = 1.
Ahora bien la sucesi on de conjuntos
C
i
= (, x
1i
] (, x
2i
] ... (, x
ki
] (4.5)
es monotona no decreciente. Por otro lado
[
iN
C
i
= R
k
,
y en consecuencia
lm
i+
F
X
(x
1i
, x
2i
, ..., x
ki
) = lm
i
P
X
((, x
1i
] (, x
2i
] ... (, x
ki
]) =
= P
X

[
iN
C
i
!
= P
X

R
k

= 1. 2
57
P3. Para todo i, 1 i k, se tiene que
lm
x
i

F
X
(x
1
, x
2
, ..., x
i
, ..., x
k
) = 0.
Demostraci on. Para este caso consideremos una sucesiones mon otona no cre-
ciente tal que {x
ij
}
jN
(i jo).
Entonces si denimos {C
i
}
iN
como en (4.5) tendremos para todo i N
se tiene C
i+1
C
i
y adem as
\
iN
C
i
= .
Por lo tanto
lm
j
F
X
(x
1i
, ..., x
ij
, ..., x
ki
) = lm
i
P
X
((, x
1i
] ... (, x
ij
] ... (, x
ki
]) =
= P
X
_
_
\
jN
C
j
_
_
= P
X
() = 0. 2
P4. F
X
es continua a derecha.
Demostraci on. Sea (x
1
, x
2
, ..., x
k
) R
k
y consideremos sucesiones monotonas
no crecientes tales que
{x
1i
}
iN
x
1
; {x
2i
}
iN
x
2
; ...; {x
ki
}
iN
x
k
Consideremos los conjuntos
C
i
= (, x
1i
] (, x
2i
] ... (, x
ki
].
Entonces
C
i+1
C
i
y
\
iN
C
i
= A
(x
1
,...,x
k
)
.
Luego
lm
i+
F
X
(x
1i
, x
2i
, ..., x
ki
) = F
X
((x
1
, x
2
, ..., x
k
)) . 2
Observaci on.
Estas cuatro propiedades no caracterizan a una funci on de distribucion
conjunta como ocurrria para el caso de una variable aleatoria.
58
Las propiedades P1, P2, P3, y P4 no alcanzan para caracterizar una
funcion de distribucion conjunta. Para jar ideas pensemos en R
2
.
Sea entonces un vector aleatorio en R
2
X = (X
1
, X
2
) y F
X
su funci on
de distribucion conjunta. Sea A
x
1
x
2
= (, x
1
] (, x
2
] y R = (a
1
, b
1
]
(a
2
, b
2
].
El rect angulo R puede ser escrito de la siguiente manera
R = (A
b
1
b
2
A
a
1
b
2
) (A
b
1
a
2
A
a
1
a
2
) .
Teniendo en cuenta las inclusiones
A
a
1
a
2
A
b
1
a
2
,
A
a
1
b
2
A
b
1
b
2
y
(A
b
1
a
2
A
a
1
a
2
) (A
b
1
b
2
A
a
1
b
2
) ,
resulta que
P
X
(R)
= P
X
(A
b
1
b
2
A
a
1
b
2
) P
X
(A
b
1
a
2
A
a
1
a
2
)
= P
X
(A
b
1
b
2
) P
X
(A
a
1
b
2
) P
X
(A
b
1
a
2
) +P
X
(A
a
1
a
2
) .
Como P
X
(A
x
1
x
2
) = F
X
(x
1
, x
2
),resulta
0
P
X
(R)
= F
X
(b
1
, b
2
) F
X
(a
1
, b
2
) F
X
(b
1
, a
2
) +F
X
(a
1
, a
2
) .
Observaciones.
1. Se sugiere hacer un dibujo.
2. Esto muestra que la probabilidad de el rect angulo R se determina por
el valor de F
X
sobre los vertices: la suma de los valores sobre los vertices de
la diagonal principal menos la suma de los valores sobre los vertices de la
otra diagonal.
3. Luego dada una funcion de distribucion F
X
para todo a
1
< b
1
y
a
2
< b
2
se debera cumplir
F
X
(b
1
, b
2
) F
X
(a
1
, b
2
) F
X
(b
1
, a
2
) +F
X
(a
1
, a
2
) 0. (4.6)
4. Veamos que esta propiedad no se deduce de las propiedades P1, P2,
P3 y P4. Para ello damos un ejemplo de una funcion que satisface P1, P2,
P3 y P4 pero no (4.6).
59
Sea F : R
2
[0, 1] denida por
F (x
1
, x
2
) =

1 si x
1
+x
2
1, x
1
0, x
2
0
0 si no.
Es facil vericar que esta funci on es monotona no decreciente en cada
variable,
lm
:x
1
, x2
F (x
1
, x
2
) = 1,
lm
x
i

F (x
1
, x
2
) = 0 para cualquier i = 1, 2,
y es continua a derecha. Pero si consideramos el rect angulo R = (0, 1] (0, 1]
entonces
P(R) = F (1, 1) +F (0, 0) (F (0, 1) +F (1, 0)) = 1 2 = 1.
Esto muestra que F no puede ser la funcion de distribucion de ning un
vector aleatorio en R
2
.
Esto motiva la denici on del operador diferencia.
Denici on. Sea F una funcion de k variables. Si a
i
< b
i
se dene el
operador diferencia en la variable i por
4(x
i
)
b
i
a
i
F = F (x
1
, x
2
, ...x
i1
, b
i
, x
i+1
, ..., x
k
)F (x
1
, x
2
, ..., x
i1
, a
i
, x
i+1
, ..., x
k
) .
Estos operadores se pueden aplicar en forma sucesiva. Por ejemplo
4(x
j
)
b
j
a
j
4(x
i
)
b
i
a
i
F
= 4(x
j
)
b
j
a
j
(F (x
1
, ...x
i1
, b
i
, x
i+1
, ..., x
k
)
F (x
1
, ...x
i1
, a
i
, x
i+1
, ..., x
k
)
= 4(x
j
)
b
j
a
j
F (x
1
, x
2
, ...x
i1
, b
i
, x
j+1
, ..., x
k
)
4(x
j
)
b
j
a
j
F (x
1
, x
2
, ...x
j1
, a
j
, x
j+1
, ..., x
k
)
= (F (x
1
, ...x
i1
, b
i
, x
i+1
, ..., x
j1
, b
j
, x
j+1
, ..., x
k
)
F (x
1
, ...x
i1
, b
i
, x
i+1
, ..., x
j1
, a
j
, x
j+1
, ..., x
k
))
(F (x
1
, ...x
i1
, a
i
, x
i+1
, ..., x
j1
, b
j
, x
j+1
, ..., x
k
)
F (x
1
, ...x
i1
, a
i
, x
i+1
, ..., x
j1
, a
j
, x
j+1
, ..., x
k
)).
Mas generalmente, si a
1
< b
1
, a
2
< b
2
, ..., a
k
< b
k
podemos conformar
la diferencia sucesiva
4(x
1
)
b
1
a
1
...4(x
k1
)
b
k1
a
k1
4(x
k
)
b
k
a
k
F.
Observaci on.
60
Podemos expresar la propiedad (4.6) en terminos del operador diferencia
como
P
X
(R) = (F
X
(b
1
, b
2
) F
X
(a
1
, b
2
)) (F
X
(b
1
, a
2
) F
X
(a
1
, a
2
))
= 4(x
1
)
b
1
a
1
F
X
(x
1
, b
2
) 4(x
1
)
b
1
a
1
F
X
(x
1
, a
2
)
= 4(x
2
)
b
2
a
2
4(x
1
)
b
1
a
1
F
X
(x
1
, x
2
) 0
En general se puede probar el siguiente Teorema
Teorema. Sea F
X
e la funci on de distribucion conjunta del vector
aleatorio X = (X
1
, ..., X
k
) y sean a
1
< b
1
, a
2
< b
2
, ..., a
k
< b
k
. Entonces se
tiene que
P
X
((a
1
, b
1
] (a
2
, b
2
] ... (a
k
, b
k
])
= 4(x
1
)
b
1
a
1
...4(x
k1
)
b
k1
a
k1
4(x
k
)
b
k
a
k
F
X
(x
1,
x
2
, ..., x
k
) 0.
Demostracion. Para probar el Teorema , consideremos para cada h, 0
h k los conjuntos de la forma
C
h
= (a
1
, b
1
] (a
2
, b
2
] ... (a
h
, b
h
] (, x
h+1
]... (, x
k
].
Se e prueba por inducci on que para todo h
P
X
(C
h
) = 4(x
1
)
b
1
a
1
...4(x
h1
)
b
h1
a
h1
4(x
h
)
b
h
a
h
F (x
1
, x
2
, ..., x
h
, x
h+1
, ..., x
k
) .
Esta inducci on se deja como ejercicio. Para h = k se obtiene el Teorema.
Luego podemos enunciar una propiedad adicional que satisface una fun-
ci on de distribuci on conjunta
P5. Si F
X
es la funci on de distribucion conjunta del vector aleatorio
X = (X
1
, ..., X
k
) para todo a
1
< b
1
, ..., a
k
< b
k
se debe cumplir que
4(x
1
)
b
1
a
1
...4(x
k1
)
b
k1
a
k1
4(x
k
)
b
k
a
k
F
X
(x
1,
x
2
, ..., x
k
) 0.
4.2.1.
El siguiente Teorema generaliza el Teorema de extensi on para variables
aleatorias
Teorema. Sea F : R
k
[0, 1] una funci on que satisface las propiedades
P1, P2, P3, P4 y P5. Luego existe una unica funcion de probabilidad P :
B
k
[0, 1] , tal que para todo (x
1
, x
2
, ..., x
k
) R
k
se cumple
P ((, x
1
] (, x
2
] ... (, x
k
]) = F (x
1
, x
2
, ..., x
k
) .
Demostraci on
No se dara la demostraci on en este curso . Utiliza argumentos de la
Teora de la Medida.
61
Corolario. Sean X = (X
1
, X
2
, ..., X
k
) y X

= (X

1
, X

2
, ..., X

k
) dos vec-
tores aleatorios. Supongamos que para todo x
1
, x
2
, ...x
k
se tiene que
F
X
(x
1
, ..., x
k
) = F
X
(x
1
, ..., x
k
).
Luego tambien se cumple que para todo B B
k
P
X
(B) = P
X
(B).
Demostraci on.
Basta con observar que para todo (x
1
, ..., x
k
) R
k
F
X
(x
1
, x
2
, ..., x
k
) = F
X
(x
1
, x
2
, ..., x
k
)
= P
X
((, x
1
] (, x
2
] ... (, x
k
]) .
Por lo tanto como P
X
y P
X
son extensiones de F
X
deben coincidir por
unicidad de la extensi on. 2
Corolario. Si F satisface P1, P2, P3, P4 y P5 entonces existe un vector
aleatorio X = (X
1
, ..., X
k
) tal que
F
X
= F.
Demostraci on.
Sea

R
k
, B
k
, P

el espacio de probabilidad tal que P es la extensi on de


F. Luego para todo (x
1
, ..., x
k
) R
k
F (x
1
, x
2
, ..., x
k
) = P ((, x
1
] (, x
2
] ... (, x
k
])
Denimos el vector aleatorio X = (X
1
, ..., X
i
, ..., X
k
) de forma tal que
X
i
sea la proyecci on sobre la coordenada i-esima. Es decir X
i
: R
k
R
esta denida por
X
i
(x
1
, x
2
, ..., x
k
) = x
i
Observemos que para todo i, 1 i k se tiene que
X
1
i
({x
i
}) = R... R(, x
i
] R... R,
y que
F
X
(x
1
, x
2
, ..., x
k
)
= P
X
(, x
1
] (, x
2
] ... (, x
k
])
= P

k
\
i=1
{(x
1
, ...x
k
) : X
i
(x
1
, ...x
k
) x
i
}
!
= P

k
\
i=1
X
1
i
((, x
i
])
!
= P ((, x
1
] (, x
2
] ... (, x
k
])
= F (x
1
, x
2
, ..., x
k
) .
62
4.3. Algunas propiedades de vectores aleatorios
Ahora estamos en condiciones de demostrar algunas armaciones hechas
con anterioridad.
Denici on. Diremos que g : R
k
R es medible si para todo x R se
tiene que g
1
((, x]) B
k
.
Observaci on. Una funcion medible puede interpretarse como una varable
aleatoria en el espacio (R
k
, B
k
).
En particular vale la siguiente
Proposicion. Si g : R
k
R es continua entonces g es medible.
Demostraci on.
Siendo (, x] cerrado se tiene que g
1
((, x]) B
k
y por lo tanto es
medible. 2
Ejercicio 6. Probar el siguiente teorema
Teorema. Sea X = (X
1
, X
2
, ..., X
k
) un vector aleatorio sobre un espacio
de probabilidad (, A, P) y g : R
k
R una funcion medible. Entonces
Y = g (X) : R es una variable aleatoria
Ahora podemos probar lo siguiente
Teorema. Si X e Y son varibles aleatorias, entonces
(i) Z = X +Y es una variable aleatoria
(ii) Z = XY es una variable aleatoria
(iii) Si P (Y = 0) = 0 entonces Z =
X
Y
es na variable aleatoria.
Demostraci on.
Se trata de escribir a Z como im agen de X e Y via una funci on g medible.
(i) Denimos g : R
2
R, g (x, y) = x+y. Como g es continua es medible.
Luego si tomamos W = (X, Y ) se tiene que Z = g (W) = X + Y es una
variable aleatoria.
La demostracion de (ii) y iii) se deja como ejercicio.
Denici on. Sea g : R
k
R
h
, es decir g = (g
1
, g
2
, ..., g
h
) tal que para
cada j = 1, 2, ..., h g
j
: R
k
R.
Diremos que g es medible sii g
j
es medible para cada j = 1, 2, ..., h.
Proposicion. Sea X = (X
1
, X
2
, ..., X
k
) un vector aleatorio y g : R
k
R
j
una funcion medible. Entonces Z = g (X) es un vector aleatorio de dimen-
si on j.
Demostraci on.
Se deja como ejercicio.
63
4.4. Independencia de variables aleatorias.
4.4.1. Algunas consideraciones heursticas.
Hemos visto con anterioridad lo que signicaba la independencia de even-
tos. Brevemente recordemos que una familia de eventos es independiente si
la ocurrencia de algunos de ellos no incide sobre la probabilidad de ocurren-
cia del otro.
Recordemos que un conjunto de eventos A
1
, A
2
, ..., A
k
son independi-
entes si para toda elecci on 1 i
1
< i
2
< ... < i
h
k
P (A
i
1
A
i
2
... A
i
h
) =
h
j=1
P

A
i
j

.
La independencia de eventos requiere algo m as que la propiedad de que
la intersecci on de todos los eventos sea el producto de sus probabilidades.
Al respecto dimos un ejemplo.
Ahora queremos denir la independencia de un conjunto de variables
aleatorias. Queremos dar respuesta a la pregunta En que medida la infor-
maci on referida a una variable aleatoria X incide en el conocimiento de los
valores de la variable aleatoria Y ?. Por ejemplo la inaci on la emisi on
monetaria son independientes ? El peso de un individuo y su presi on san-
guinea son independientes? etc. Para denir el concepto de independencia
de variables aleatorias utilizaremos la noci on de independencia de eventos.
Denici on. Sean X
1
, X
2
, ..., X
k
variables aleatorias, sobre un mismo
espacio de probabilidad (, A, P) .Diremos que dichas variables son inde-
pendientes sii para cualquier conjunto B
1
, B
2
, ..., B
k
B (Boreleanos en R),
los eventos X
1
j
(B
j
) , j = 1, 2, .., k son independientes.
La siguientes dos proposici ones dan dos caracterizaciones de la propiedad
de independencia de un conjunto variables aleatorias.
Proposicion 1. Las variables aleatorias X
1
, ..., X
k
son independientes
si y s olo si para toda conjunto de borelianos B
1
, B
2
, ..., B
k
vale que
P
_
_
k
\
j=1
X
1
j
(B
j
)
_
_
=
k
j=1
P

X
1
j
(B
j
)

. (4.7)
Demostraci on.
Primero mostraremos que (4.7) es una condicion necesaria. Si X
1
, ..., X
k
son independientes, (4.7) debe cumplirse por denicion de independencia de
eventos.
Ahora probaremos la suciencia de (4.7)
Debemos probar que (4.7) implica para cualquier subconjunto de ndices
i
1
< i
2
< ... < i
h
, h < k que
P
_
_
h
\
j=1
X
1
i
j

B
i
j

_
_
=
h
j=1
P

X
1
i
j

B
i
j

.
64
Consideremos los conjuntos C
i
, 1 i k, denidos de la siguiente
manera
C
i
=

B
i
si i coincide con alg un i
j
R en caso contrario.
Entonces dado que X
1
i
(R) = y P() = 1,se tiene que
P
_
_
h
\
j=1
X
1
i
j

B
i
j

_
_
= P

k
\
i=1
X
1
i
(C
i
)
!
=
N

k
i=1
P

X
1
i
(C
i
)

=
h
j=1
P

X
1
i
j

B
i
j

2
Hay que observar que en N aplicamos la hip otesis para los conjuntos
C
i
, i = 1, 2, ..., k.
Ahora escribiremos la misma proposici on de otra manera
Proposicion 2. Las variables aleatorias X
1
, ..., X
k
son independientes
si y s olo si para toda colecci on de Borelianos B
1
, B
2
, ..., B
k
vale que
P
X
(B
1
B
2
... B
k
) =
k
j=1
P
X
j
(B
j
) ,
donde X = (X
1
, X
2
, ..., X
k
) .
Demostraci on.
Como P
X
j
(B
j
) = P(X
1
j
(B
j
)) por la Proposicion 1 bastar a mostrar que
P
X
(B
1
B
2
... B
k
) = P
_
_
h
\
j=1
X
1
i
j

B
i
j

_
_
.
Para eso observamos que
P
X
(B
1
B
2
... B
k
) = P
X
({ : X() B
1
B
2
... B
k
})
= P
X
({ : (X
1
() , X
2
() , ..., X
k
()) B
1
B
2
... B
k
})
= P
_
_
k
\
j=1
{ : X
j
() B
j
}
_
_
= P
_
_
h
\
j=1
X
1
i
j

B
i
j

_
_
.
El siguiente teorema, cuya demostraci on es un poco mas delicada da una
condicion necesaria y suciente para la independencia de un conjunto de
variables que es m as simple de vericar
Teorema. Una condici on necesaria y suciente para que las variables
aleatorias X
1
, X
2
, ..., X
k
sean independientes es que para todo (x
1
, x
2
, ..., x
k
)
R
k
se tiene
F
X
(x
1
, x
2
, ..., x
k
) = F
X
1
(x
1
) F
X
2
(x
2
) ...F
X
k
(x
k
) , (4.8)
65
donde X = (X
1
, X
2
, ..., X
k
) .
Demostraci on.
Para ver que (4.8) es una condici on necesaria para la independencia de
X
1
, ...X
k
, basta aplicar la Proposici on 2 a los conjuntos
B
1
= (, x
1
], B
2
= (, x
2
], ..., B
k
= (, x
k
]
Probaremos ahora la suciencia.
Consideremos los conjuntos del tipo
B
1
B
2
... B
r
(, x
r+1
] (, x
r+2
] ... (, x
k
]
Probaremos por inducci on sobre r que vale la siguiente propiedad que
llamamos A
r
:
P
X
(B
1
B
2
... B
r
(, x
r+1
] (, x
r+2
] ... (, x
k
])
= P
X
1
(B
1
) ...P
Xr
(B
r
) P
X
r+1
((, x
r+1
]) ...P
X
k
((, x
k
]) . (4.9)
Para r = 0, la condicion (4.9) vale, puesto que se reduce a un producto
de semirectas.
Supongamos que vale para r y probemos que vale para r + 1.
En primer lugar probemos que si (4.9) vale para r, tambien vale reem-
plazando (, x
r+1
] por R, esto es
P
X
(B
1
B
2
... B
r
R(, x
r+2
] ... (, x
k
])
= P
X
1
(B
1
) ...P
Xr
(B
r
) P
X
r+1
(R) ...P
X
k
((, x
k
]) =
= P
X
1
(B
1
) ...P
X
r
(B
r
) P
X
r+2
((, x
r+2
]) ...P
X
k
((, x
k
]) . (4.10)
Para mostrar esto podemos considerar una sucesion creciente de semirec-
tas C
n
= (, n]. Luego R =
S

n
C
n
y la sucesi on {B
1
B
2
... B
r

C
n
(, x
r+2
] ... (, x
k
]} n = 1, 2, ... es mon otona no decreciente
en R
k
y vale
[
nN
B
1
B
2
... B
r
C
n
(, x
r+2
] ... (, x
k
]
= B
1
B
2
... B
r
R (, x
r+2
] ... (, x
k
]
Luego usando que vale A
r
tenemos que
P
X
(B
1
B
2
... B
r
R (, x
r+2
] ... (, x
k
])
= lm
n
P
X
(B
1
B
2
... B
r
(, n] (, x
r+2
] ... (, x
k
])
= lm
n
P
X
(B
1
)P
X
(B
2
)...P
X
(B
r
)P
X
((, n])P
X
((, x
r+2
])...P
X
((, x
k
])
= P
X
(B
1
)P
X
(B
2
)...P
X
(B
r
)P
X
(R)P
X
((, x
r+2
])...P
X
((, x
k
]).
66
Ahora probaremos A
r+1
. Es decir debemos probar que dados boreleanos
B
1
, ...., B
r=!
y reales x
r+2
, ..., x
k
se tiene
P
X
(B
1
B
2
... B
r
B
r+1
(, x
r+2
] ... (, x
k
])
= P
X
1
(B
1
) ...P
Xr
(B
r
) P
X
r+1
(B
r+1
) ...P
X
k
((, x
k
]) . (4.11)
Consideremos el conjunto
A = B
1
B
2
... B
r
R (, x
r+2
] ... (, x
k
],
y distinguimos dos casos: (a) P
X
(A) = 0, (b) P
X
(A) > 0
Consideremos primero el caso (a). Por (4.10)
0 = P
X
(A) = P
X
(B
1
B
2
... B
r
R (, x
r+2
] ... (, x
k
])
= P
X
1
(B
1
) ...P
X
r
(B
r
) P
X
r+1
(R) ...P
X
k
((, x
k
])
se tiene que
P
X
(B
i
) = 0 para alg un 1 i r
o bien
P
X
i
((, x
i
]) = 0 para alg un r + 2 i k.
En cualquiera de los dos casos el mimbro derecho de (4.11) es 0
Supongamos que P
X
(B
i
) = 0 podemos suponer que i = 1, para jar
ideas. Entonces teniendo en cuenta que
B
1
B
2
... B
r
B
r+1
(, x
r+2
] ... (, x
k
] B
1
R... R,
obtenemos que
P
X
(B
1
B
2
... B
r
B
r+1
(, x
r+2
] ... (, x
k
])
P
X
(B
1
R... R) = P
X
1
(B
1
) = 0,
y luego el miebro izquierdo de (4.11) tambieen es 0 y la igualdad se cumple..
Ahora si P
X
i
((, x
i
]) = 0, de nuevo podemos suponer que i = 1 y
proceder de manera an aloga Luego (4.11) vale para el caso (a).
Consideremos el caso (b), luego P
X
(A) > 0. Denimos un nuevo espacio
de probabilidades (R, B, P

) de la siguiente manera: Para todo B B


denimos
P

(B) =
P
X
(B
1
B
2
... B
r
B (, x
r+2
], ... (, x
k
])
P
X
(A)
.
Observese que los borelianos B
1
, B
2
, ...B
r
y los reales x
r+2
, ..., x
k
per-
manecen jos cuando se cambia B
Veamos en primer lugar que efectivamente P

: B [0, 1] es una prob-


abilidad.
67
(i) Claramente
P

(R) =
P
X
(A)
P
X
(A)
=1.
(ii) Supongamos que (C
n
)
n1
B es una sucesi on de Borelianos disjuntos
dos a dos. Entonces
P

]
nN
C
n
!
=
P
X

B
1
B
2
... B
r

U
nN
C
n
(, x
r+2
], ... (, x
k
]

P
X
(A)
=
P
X
U
nN
(B
1
B
2
... B
r
C
n
(, x
r+2
], ... (, x
k
])

P
X
(A)
=
P

n=1
P
X
(B
1
B
2
... B
r
C
n
(, x
r+2
], ... (, x
k
])
P
X
(A)
=

X
n=1
P
X
(B
1
B
2
... B
r
C
n
(, x
r+2
], ... (, x
k
])
P
X
(A)
=

X
n=1
P

(C
n
) .
Esto prueba que P

es una probabilidad.
Observemos que en las anteriores igualdades se uso, adem as de que P es
una probabilidad, una propiedad de la teoria de conjuntos, facil de probar:
B
1
B
2
... B
r

]
nN
C
n
(, x
r+2
], ... (, x
k
]
=
]
nN
(B
1
B
2
... B
r
C
n
(, x
r+2
], ... (, x
k
]) .
Ahora calcularemos el valor de P

sobre una semirecta.


Dado que A
r
es v alida (hip otesis inductiva), si x R se tiene
P

((, x])
=
P
X
(B
1
B
2
... B
r
(, x] (, x
r+2
], ... (, x
k
])
P
X
(A)
=
P
X
1
(B
1
) ...P
Xr
(B
r
) P
X
r+1
((, x]) ...P
X
k
((, x
k
])
P
X
1
(B
1
) ...P
Xr
(B
r
) P
X
r+1
(R) ...P
X
k
((, x
k
])
= P
X
r+1
((, x]) .
Entonces por la unicidad de la extentensi on como P
X
r+1
y P

coinciden
en las semirectas (, x] se tendr a que para todo B B,
P

(B) = P
X
r+1
(B) .
68
En particular
P

(B
r+1
) = P
X
r+1
(B
r+1
) ,
y luego
P
X
r+1
(B
r+1
) =
P
X
(B
1
B
2
... B
r
B
r+1
(, x
r+2
], ... (, x
k
])
P
X
1
(B
1
) ...P
X
r
(B
r
) P
X
r+1
(R) ...P
X
k
((, x
k
]) .
.
Luego teniendo en cuenta que estamos suponiendo que A
r
es cierta y usando
que P
X
r+1
(R) = 1 obtenemos
P
X
(B
1
B
2
... B
r
B
r+1
(, x
r+2
], ... (, x
k
])
= P
X
r+1
(B
r+1
) P
X
1
(B
1
) ...P
X
r
(B
r
) P
X
r+2
(B
r+2
) ...P
X
k
((, x
k
])
= P
X
1
(B
1
) ...P
X
r
(B
r
) P
X
r+1
(B
r+1
) ...P
X
k
((, x
k
]) ,
y luego o tmbien vale A
r+1
2.
4.4.2. Presevacion de la independencia por transformaciones.
Teorema. Sea (, A, P) un espacio de probabilidad sean X
1
, X
2
, ..., X
h
variables
aleatorias independendientes. Si g
j
: R R, j = 1, 2, ..., h son funciones
medibles entonces Y
1
= g
1
(X
1
) , Y
2
= g
2
(X
2
) , ..., Y
h
= g
1
(X
h
) tambien son
variables aleatorias independientes
Demostraci on.
Aplicamos la denici on de independencia. Dados B
1
, B
2
, ..., B
h
Bore-
lianos arbitrarios queremos probar que los conjuntos Y
1
1
(B
1
) , Y
1
2
(B
2
) ..., Y
1
h
(B
h
)
son eventos independientes
Ahora bien para cada j = 1, 2, ..., h se tiene
Y
1
j
(B
j
) = X
1
j

g
1
j
(B
j
)

= X
1
j
(C
j
) ,
donde C
j
= g
1
j
(B
j
) . Como los C
j
, j = 1, 2, ..., h son borelianos, la indepen-
dencia de las variables X
j
implica que los eventos X
1
j
(C
j
) . Luego Y
1
, ...Y
h
son independientes.
4.4.3. Independencia de vectores aleatorios.
Denici on. Sea (, A, P) un espacio de probabilidad. Sean X
1
, X
2
, ..., X
h
vectores aleatorios de dimensiones k
1
, k
2
, ..., k
h
respectivamente, esto es
X
i
: R
k
i
, i = 1, 2, ..., h
son vectores aleatorios.
Diremos que el sistema de vectores es independiente si dados B
1

B
k
1
, B
2
B
k
2
, ..., B
h
B
k
h
, boreleanos arbitrarios en sus respectivos es-
pacios, los conjuntos X
1
j
(B
j
) j = 1, 2, ..., h son eventos independientes.
Las siguientes dos proposici ones dan condici ones necesarias y sucientes
para que un conjunto de vectores aleatorios sean independientes . Las dos
condiciones son analogas a las obtenidas para variables aleatorias.
69
4.4.4.
Proposicion 1. Una condicion necesaria y suciente para que el con-
junto de vectores X
1
, X
2
, ..., X
h
, donde X
i
es de dimensi on k
i
,sean indepen-
dientes es que para todo B
1
B
k
1
, B
2
B
k
2
, ..., B
h
B
k
h
se cumpla
P
e
X
(B
1
B
2
... B
h
) = P
X
1
(B
1
) P
X
h
(B
h
) ...P
X
h
(B
h
) ,
donde
e
X = (X
1
, X
2
, ..., X
h
) .
Demostraci on.
Analoga a la demostraci on de la proposicion correspondiente para vari-
ables aleatorias.
Proposicion 2. Una condicion necesaria y suciente para que un con-
junto de vectores X
1
, X
2
, ..., X
h
sean independientes es que para todo
(x
1,
x
2
, ..., x
h
) R
k
1
R
k
2
... R
kh
se tenga
F
e
X
(x
1,
x
2
, ..., x
h
) = F
X
1
(x
1
) F
X
2
(x
2
) ...F
X
1
(x
h
) ,
donde
e
X = (X
1
, X
2
, ..., X
h
) .
Demostraci on. Analoga a la demostraci on de la proposici on correspon-
diente para variables aleatorias.
Proposici on 3. Sean X
1
, X
2
, ..., X
h
un sistema de vectores aleato-
rios de dimensiones k
1
, k
2
, .., k
h
respectivamente. Sean g
1
, g
2
, ..., g
h
funciones
medibles, g
i
: R
k
i
R

i
, i = 1, 2, ..., h. Entonces los vectores aleatorios
Y
1
= g
1
(X
1
) , Y
2
= g
2
(X
2
) , ..., Y
h
= g
h
(X
h
) son independientes
Demostraci on. Analoga a la demostraci on de la proposici on correspon-
diente para variables aleatorias.
70
Captulo 5
Vectores aleatorios discretos
y continuos.
Tal como ocurre con las variables aleatorias, existen distintos tipos de
vectores aleatorios.
5.1. Vectores aleatorios discretos.
Denici on. Sea X = (X
1
, X
2
, ..., X
h
) un vector aleatorio. Si dice que
X es de tipo discreto o bien que tiene distribuci on discreta sii para cada
i = 1, 2, ..., h X
i
es un variable aleatoria discreta.
Esto implica, de acuerdo a lo estudiado, que para cada i = 1, 2, ..., h
existe un conjunto nito o innito numerable R
X
i
tal que P
X
i
(R
X
i
) = 1.
La siguiente proposicion muestra que el conjunto
R

X
= R
X
1
... R
X
h
es nito o innito numerable y que P
X
(R

) = 1.
Necesitamos previamente demostrar el siguiente lema
Lema. Sean A
1
, ..., A
h
una sucesion nita de eventos tal que para todo
i, 1 i h, tal que P (A
i
) = 1. Entonces
P

h
\
i=1
A
i
!
= 1.
Demostraci on.
Basta probar que la probabilidad del complemento es cero. Eso se sigue
inmediatamente dado que la probabilidad es subaditiva y P (A
c
i
) = 0. En
efecto, se tiene
0 P

h
\
i=1
A
i
!
c
!
= P

h
[
i=1
A
c
i
!

h
X
i=1
P (A
c
i
) = 0.
71
Luego
P

h
\
i=1
A
i
!!
= 1 P

h
\
i=1
A
i
!
c
!
= 1.2
Proposicion. Sea X = (X
1
, X
2
, ..., X
h
) un vector aleatorio. Entonces
el conjunto
R

X
= R
X
1
... R
X
h
es nito o innito numerable y
P
X
(R

) = 1.
Demostraci on. R

X
es a lo sumo numerable, porque un producto carte-
siano nito de conjuntos a lo sumo numerables es a lo sumo numerable.
Adem as
{: X() R
X
1
... R
X
h
} =
h
\
i=1
{ : X
i
() R
X
i
}.
Luego por el Lema anterior
P
X
(R

X
) = P
X
(R
X
1
... R
X
h
) = P ({: X() R
X
1
... R
X
h
})
= P

h
\
i=1
{ : X
i
() R
X
i
}
!
= 1,
ya que P ({ : X
i
() R
X
i
}) = P
X
i
(R
X
i
) = 1 2.
De manera analoga a como lo hicimos para una sola variable se puede
buscar el mnimo conjunto que tiene propabilidad 1. Este conjunto puede
ser distinto de R

X
.
Ejemplo.
Consideremos un vector aleatorio X = (X
1
, X
2
) que asume los valores
{(0, 0) , (1, 1)} con equiprobabilidad
1
2
. De esto se deduce que las variables
aleatorias X
1
, X
2
a su vez asumen los valores 0 y 1 con probabilidad
1
2
para ambos. Ahora bien
R

X
= R
X
1
R
X
2
= {(0, 0) , (1, 1) , (0, 1) , (1, 0)}.
Se ve que el conjunto R

X
puede ser reducido a R
X
= {(0, 0) , (1, 1)}.
Mas generalmente si X es un vector discreto de dimension k, podemos
considerar el conjunto de los atomos de la probabbilidad,
R
X
= {x :P
X
({x}) > 0} R
X
1
... R
X
h
.
Mostraremos que P
X
(R
X
) = 1 y que este conjunto es mnimal con respecto
a esta propiedad. es decir si B B
k
es tal que P
X
(B) = 1, entonces
R
X
B.
72
5.1.1. Funcion de densidad de probabilidad conjunta.
Una vez obtenido el conjunto R
X
donde se concentra la probabilidad de
la un vector aleatorio discreto vamos a mostrar que igual que en el caso de
una variable aleatoria podemos determinar una funcion denida sobre R
k
que la determina totalmente P
X.
Denici on. Sea X =(X
1
, X
2
, ..., X
k
) un vector aleatorio discreto. Se de-
ne la funci on densidad de probabilidad conjunta p
X
: R
k
[0, 1] ,asociada
al vector X por
p
X
(x) = P
X
({x}) .
Observaci on.
1. De acuerdo a la denici on de R
X
se tendra
p
X
(x) =

> 0 si x R
X
0 si x / R
X
.
Como consecuencia de las anteriores observaciones y de manera an aloga
a como lo hemos hecho para una sola variable se tiene que si B B
k
entonces
P
X
(B) =
X
xBR
X
p
X
(x) .
2. Muchas veces es conveniente considerar el conjunto R

X
= R
X
1
R
X
2

... R
X
k
en vez de R
X
. Luego si B = B
1
B
2
.... B
k
, donde B
1
...B
k
son borelinanos en R, podemos escribir
P
X
(B) =
X
xBR

X
p
X
(x) =
X
xBR
X
1
R
X
2
...R
X
k
p
X
(x)
=
X
x
k
B
k
R
X
k
X
x
k1
B
k1
R
X
k1
...
X
x
1
B
1
R
X
1
p
X
(x
1
, x
2
, ..., x
k
) .
En particular si B = R
k
obtenemos
1 = P
X

R
k

=
X
xR

X
p
X
(x) =
X
xR
X
1
R
X
2
...R
X
k
p
X
(x)
=
X
x
k
R
X
k
X
x
k1
R
X
k1
...
X
x
1
R
X
1
p
X
(x) .
5.1.2. Caracterizacion de la funci on de densidad marginal
asociada a un subconjunto de variables.
Se trata de determinar a partir de la funci on de densidad conjunta
la marginal asociada a un sobconjunto arbitrario de variables. Para jar
73
ideas, consideremos un vector aleatorio X =(X
1
, X
2
, ..., X
h
, X
h+1
, ..., X
k
) y
un subvetor X

= (X
1
, X
2
, ..., X
h
) .
Proposicion. La funci on de densidad marginal asociada al vector X

viene dada por la formula


p
X
(x) =
X
x
h+1
R
X
h+1
X
x
h+2
R
X
h+2
...
X
x
k
R
X
k
p
X
(x
1
, ..., x
h
, x
h+1
, ..., x
k
) .
Demostraci on.
Aplicando la denici on de p
X
p
X
((x
1
, x
2
, ..., x
h
)) = P
X
({(x
1
, x
2
, ..., x
h
)})
= P
X
({{x
1
} {x
2
} ... {x
h
} R... R) .
Entonces de acuerdo al resultado anterior
p
X
((x
1
, x
2
, ..., x
h
)) = P
X
({x
1
} {x
2
} ... {x
h
} R... R)
=
X
x
k
RR
X
k
...
X
x
h+1
RR
X
k+1
p
X
(x
1
, ..., x
h
, x
h+1
, ...x
k
)
=
X
x
k
R
X
k
...
X
x
k+1
R
X
k+1
p
X
(x
1
, ..., x
h
, x
h+1
, ...x
k
).
Ahora vamos a dar una condici on necesaria y suciente de independencia
para el caso de variables aleatorias con distribucion discreta en terminos de
la funcion de densidad conjunta y sus marginales.
Para esto recordemos que una condicion necesaria y suciente para que
el sistema de variables aleatorias X
1
, X
2
, ..., X
h
sea independiente es que
dados Borelianos arbitrarios B
1
, B
2
, ..., B
h
P
X
(B
1
B
2
... B
h
) = P
X
1
(B
1
) P
X
2
(B
2
) ...P
X
h
(B
h
) . (5.1)
Teorema. Sea X= (X
1
, X
2
, ..., X
h
) un vector aleatorio con distribuci on
discreta.
Una condici on necesaria y suciente para que el conjunto de variables
aleatorias X
1
, X
2
, ..., X
h
con distribucion discreta sea independiente es que
para todo x = (x
1
, ..., x
h
) R
h
p
X
(x) = p
X
1
(x
1
) p
X
2
(x
2
) ...p
X
h
(x
h
) (5.2)
Demostraci on.
74
Es facil ver que (5.2) es necesaria. Tomando en particular los Boreleanos
B
j
= {x
j
}, j = 1, 2, ..., h y aplicando (5.1) se obtiene
p
X
(x) = P
X
({(x
1
, x
2
, ..., x
h
))} = P
X
({x
1
} {x
2
} ... {x
h
})
= P
X
1
({x
1
}) P
X
2
({x
2
}) ...P
X
h
({x
h
})
= p
X
1
(x
1
) p
X
2
(x
2
) ...p
X
h
(x
h
)
Ahora veamos la suciencia. Tenemos que probar que si ocurre (5.2)
entonces las variables X
1
, ..., X
h
son independientes. Como (5.1) implica la
suciencia, bastar a probar que (5.2) implica (5.1)..
Como la demostraci on para k = 2 es similar a la demostraci on general
pero la notaci on es mas simple, lo probaremos en este caso. Consideremos un
vector de dos componentes X =(X
1
, X
2
) y sean B
1
, B
2
Boreleanos, entonces
P
X
(B
1
B
2
) =
X
x
1
B
1
R
X
1
X
x
2
B
2
R
X
2
p
X
(x
1
, x
2
)
=
X
x
1
B
1
R
X
1
X
x
2
B
2
R
X
2
p
X
1
(x
1
) p
X
1
(x
2
)
=
_
_
X
x
1
B
1
R
X
1
p
X
1
(x
1
)
_
_
_
_
X
x
2
B
2
R
X
2
p
X
1
(x
2
)
_
_
.
Observaci on.
En la ultima igualdad hemos usado la formula
X
(a,b)AB
ab =
X
aA
X
bB
ab =

X
aA
a
!

X
bB
b
!
5.2. Ejemplos de distribuciones discretas.
5.2.1. Multinomial (Binomial Multivariada o Generalizada)
M(p
1
, ..., p
k,
n) .
Supongamos que un experimento que tiene a k posibles resultados se
repite n veces en forma independiente. Sean A
i
, i = 1, 2, ..., k, los posibles
resultados del experimento y p
i
la probabilidad que el resultado sea A
i
.
Luego
k
X
i=1
p
i
= 1.
Existen una gran cantidad de ejemplos de este tipo de experimentos.
Por ejemplo si se tira un dado hay seis posibles resultados con la misma
probabilidad . Luego p
i
=
1
6
, i = 1, ..., 6. Otro experimento pude ser se
75
registra el voto de n ciudadanos elegidos al azar en una eleccion donde hay
k candidatos. En este caso en principio los valores de los p
i
pueden ser
arbitrarios.
Denotamos con X
i
a la variable aleatoria cantidad de veces que ocurre el
resultado A
i
a lo largo de los n experimentos i = 1, 2, ..., k y conformemos
el vector aleatorio X =(X
1
, X
2
, ..., X
k
) .
Como espacio muestral consideremos
= {(i
1
, i
2
, ..., i
n
) : i
j
N, 1 i
j
k}.
Por ejemplo si n = 4 y k = 3 la 4-upla (1, 3, 2, 3) indica que el resultado
A
1
ocurri o la primera vez y nunca m as, el resultado A
3
la segunda y cuarta
vez y el resultado A
2
la tercera.
Con este espacio muestral, las variables aleatorias X
j
: N esta deni-
da por
X
i
(i
1
, i
2
, ..., i
n
) = #{j : i
j
= i}.
y se tiene que
k
X
i=1
X
i
(i
1
, i
2
, ..., i
n
) = n
El espacio no es equiprobable. Como suponemos independencia entre
los experimentos, y el vector (i
1
, i
2
, ..., i
n
) indica la intersecci on de los n
eventos
B
y
= {en el experimento j el resultado fue i
j
}, j = 1, ..., n
y el evento B
j
tiene probabilidad p
j
,resulta
p
X
(i
1
, i
2
, ..., i
n
) = p
i
1
p
i
2
...p
i
n
(5.3)
Fijado x = (x
1
, ...x
k
) tal que
P
k
i=1
x
i
= n,calcularemos la probabilidad
del evento
A = {(i
1
, i
2
, ..., i
n
) : X(i
1
, i
2
, ..., i
n
)
= (x
1
, x
2
, ..., x
k
)},
donde
X(i
1
, i
2
, ..., i
n
) = (X
1
(i
1
, i
2
, ..., i
n
) , X
2
(i
1
, i
2
, ..., i
n
) , ..., X
k
(i
1
, i
2
, ..., i
n
))
= (x
1
, x
2
, ..., x
k
) ,
El evento A ocurre cuando para cada i, 0 x
i
k, el resultado A
i
ocure
x
i
veces en las n repeticiones del experimento.
Ahora podemos escribir usando (5.3), la probabilidad de cualquier ele-
mento del evento como
p
X
(i
1
, i
2
, ..., i
n
) = p
X
1
(i
1
,i
2
,...,in)
1
p
X
2
(i
1
,i
2
,...,in)
2
...p
X
k
(i
1
,i
2
,...,in)
k
.
76
En particular si (i
1
, i
2
, ..., i
n
) A, se tendra
p
X
(i
1
, i
2
, ..., i
n
) = p
x
1
1
p
x
2
2
...p
x
k
k
.
Luego todo los elementos de A tienen la misma probabilidad y por lo
tanto la probabilidad de A estar a dada por la probabilidad de un elemento
por su cardinal . Un argumento simple de combinatoria muestra que
#A =

n
x
1

n x
1
x
2

n x
1
x
2
x
3

...

x
k
x
k

=
=
n!
(x
1
)! (n x
1
)!
(n x
1
)!
(x
2
)! (n x
1
x
2
)!
(n x
1
x
2
)!
(x
3
)! (n x
1
x
2
x
3
)!
.,1
=
n!
(x
1
)! (x
2
)! (x
3
)!... (x
k
)!
.
Luego tendremos
p
X
(x
1
, x
2
, ..., x
k
) = P
X
(A) =
n!
(x
1
)! (x
2
)! (x
3
)!... (x
k
)!
.p
x
1
1
p
x
2
2
...p
x
k
k
.
5.2.2. Distribucion Hipergeometrica Multvariada.
Consideremos N objetos que pueden clasicarse en k clases distintas
A
1
, A
2
, ..., A
k
.
Supongamos conocida la cantidad de objetos de cada clase, digamos
D
1
de la clase A
1
, D
2
de la clase A
2
, ..., D
k
de la clase A
k
. Desde luego
P
k
i=1
D
i
= N. Supongamos que se realizan n extracciones y sea X
i
la
cantidad de objetos de la clase i que se obtuvieron en las n extracciones.
y consideremos el vector aleatorio X =(X
1
, X
2
, ..., X
k
) .
Existen dos posibilidades
(a) Las extracciones se hacen con reposicion. En este caso, el experi-
mento tiene distribucion multinomial con parametros p
1
, p
2
, ..., p
k
y n, donde
p
i
=
D
i
N
que ser a denotada por M(p
1
, ..., p
n
, n).
b) Las extracciones se hacen sin reposicion. . En este caso la dis-
tribucion se denomina hipergeometrica multivariada y sera denotada por
HGM(D
1
, ..., D
k
, n).
Calculemos el rango del vector X
R
X
= {(x
1
, x
2
, ..., x
k
) : 0 x
i
D
i
, x
1
+x
2
+... +x
k
= n}.
Como cada n-upla tiene una probabilidad distinta, no sera conveniente
tomar como espacio muestral el conjunto de estas kuplas. Para construir
un espacio de probabilidad equiprobable procedemos de la siguiente manera.
77
Comenzamos enumerando todos los objetos de la siguiente manera. Los de
clase 1 por
M
1
= {1, 2, ... D
1
}.
Los de la clase 2 por
M
2
= {D
1
+ 1, D
1
+ 2, ... , D
1
+D
2
}.
Los de la clase 3 por
M
3
= {D
1
+D
2
+ 1, D
1
+D
2
+ 2, ..., D
1
+D
2
+D
3
}.
y nalmente los de la clase k por
M
k
=
(
k1
X
i=1
D
i
+ 1,
k1
X
i=1
D
i
+ 2, ...,
k
X
i=1
D
i
)
.
Denamos entonce el espacio muestral por
= {A : A {1, ..., N}, #A = n},
Si el conjunto A se interpreta como el cojunto de los n umeros de las bolillas
obtenidas , resultara que todos los elementos de son equiprobables. Por
ejemplo si N = 20 y n = 3 la probabilidad de extraer los elementos {1, 2, 17}
o {2, 6, 8} es la misma.
El n umero de elementos de es la cantidad de subconjuntos de n ele-
mentos que se pueden formar con los N dados. Luego
#() =

N
n

Dado A , se dene X
i
(A) = #A M
i
, 1 i k, y X(A) =
(X
1
(A), ..., X
k
(A)). Consideremos ahora el evento
C = {A : X(A) = (x
1
, x
2
, ..., x
k
)}.
C representan todas las extracciones en las que resulta que hay exacta-
mente x
1
elementos de la clase A
1
, x
2
de la clase A
2
, ..., x
k
de la clase A.
Un argumento combinatorio simple muestra que el cardinal de C es
#(C) =

D
1
x
1

D
2
x
2

...

D
k
x
k

,
de manera que
p
X
(x
1
, x
2
, ..., x
k
) = P (C) =

D
1
x
1

D
2
x
2

...

D
k
x
k

N
n
.
78
5.3. Vectores Aleatorios de tipo absolutamente con-
tinuo.
Denici on. Sea (, A, P) un espacio de probabilidad y X =(X
1
, X
2
, ..., X
k
)
un vector aleatorio. Se dice que el vector es absolutamente continuo si ex-
iste una funcion integrable sobre R
k
, f
X
: R
k
R
0
llamada funcion de
densidad de la probabilidad P
X
tal que
F
X
(x
1
, x
2
, ..., x
k
) =
Z
x
k

Z
x
k1

...
Z
x
1

f
X
(t
1
, t
2
, ..., t
k
) dt
1
dt
2
...dt
k
=
=
Z

Z
(,x
k
](,x
k1
]...(,x
1
]
f
X
(t) dt,
donde t =(t
1
, t
2
, ..., t
k
) y dt = dt
1
dt
2
...dt
k
.
Usaremos esta ultima notacion cuando convenga.
Observaciones.
1. Analogamente al caso univariado se tendra
Z
+

Z
+

...
Z
+

f
X
(t) dt = P
X
(R
k
) = 1.
2. Supongamos que a
1
< b
1
, a
2
< b
2
, a
3
< b
3
, ..., a
k
< b y consideremos
el rect angulo R = (a
1
, b
1
] (a
2
, b
2
] ... (a
k
, b
k
]. Luego la probabilidad de
R se obtiene integrando la funci on densidad sobre R. M as explcitamente
P
X
((a
1
, b
1
] (a
2
, b
2
] ... (a
k
, b
k
])
=
b
k
a
k
(x
k
) ...
b
1
a
1
(x
1
) F
X
(x
1
, x
2
, ..., x
k
)
=
Z
b
k
a
k
Z
b
k1
a
k1
...
Z
b
1
a
1
f
X
(t
1
, t
2
, ..., t
k
) dt
1
dt
2
...dt
k
.
3. Se puede probar, mediante teoria de la medida e integracion que para
todo Boreliano B B
k
P
X
(B) =
Z

Z
B
f
X
(t) dt.
La funcion de densidad de probabilidad tiene una interpretacion an aloga
a la que hemos visto para el caso univariado. La siguiente propiedad dice
que en un punto de continuidad, el lmite de la probabilidad de un entorno
de un punto sobre su vol umen, cuando el entorno se aproxima al punto es
el valor de la densidad en el punto. M as precisamente
Teorema. Sea f
X
la funcion densidad asociada al vector aleatorio
X =(X
1
, X
2
, ..., X
k
) continua en el punto x
0
= (x
10
, x
20
, ..., .x
k0
) . Entonces
lm
h0
P
X
([x
10
h, x
10
+h] ... [x
k0
h, x
k0
+h])
(2h)
k
= f
X
(x
0
) .
79
Demostraci on
Es analoga al caso univariado y se deja como ejercicio.
Observaci on. Los entornos c ubicos se pueden reemplazar por otro tipo
de entornos, por ejemplo entornos esfericos.
Bajo el supuesto de que la densidad sea continua, se puede escribir la
densidad como la derivada parcial cruzada de orden k de la funcion de
distribucion
Teorema. Supongamos que f
X
se continua en x
0
. Entonces
f
X
(x
0
) =

K
F
X
(x
1
, x
2
, ..., x
k
)
x
k
x
k1
...x
1

x=x
0
.
Demostraci on
Es consecuencia del teorema fundamental del calculo para varias vari-
ables.
Por denici on se tiene que
F
X
(x
1
, x
2
, ..., x
k
) =
Z
x
k

Z
x
k1

...
Z
x
1

f
X
(t
1
, t
2
, ..., t
k
) dt
1
dt
2
...dt
k
.
Dejando jas todas las variables excepto x
1
y aplicando el teorema fun-
damental del c alculo se obtiene
F
X
(x
1
, x
2
, ..., x
k
)
x
1
=
Z
x
k

Z
x
k1

...
Z
x
2

f
X
(x
1
, t
2
, ..., t
k
) dt
2
...dt
k
.
Ahora manteniendo jas todas la variables excepto x
2
F
X
(x
1
, x
2
, ..., x
k
)
x
1
=
Z
x
k

Z
x
k1

...
Z
x
3

f
X
(x
1
, x
2
, ..., t
k
) dt
3
...dt
k
.
Derivando k veces se llega al resultado deseado
Denicion. Dado un Boreliano B B
k
se dene su volumen de la
siguiente manera
Vol (B) =
Z

Z
B
dx
1
dx
2
...dx
k
=
Z

Z
B
dx.
Observaci on.
Un caso tpico de conjuntos con volumen 0 resulta ser un punto en R,
una recta en R
2
, un plano en R
3
y en general un hiperplano en R
k
. Las
uniones a lo sumo numerable de conjuntos de volumen cero tiene columen
cero. En general cualquier subconjunto de R
k
de dimension j con j < k
tendra volmen en 0. Por ejemplo las curvas en R
2
o las supercies en R
3
80
Veremos que si el vector aleatorio es absolutamente continuo la funci on
de probabilidad asociada asigna probabilidad 0 a conjuntos cuyo volumen
es 0.
Teorema. Sea X un vector aleatorio de dimension k. Si B B
k
tal que
Vol(B) = 0 entonces P
X
(B) = 0.
Demostraci on.
Sea
C
n
= {x R
k
: f
X
(x) > n}.
Es claro que si x C
n+1
entonces f
X
(x) > n + 1 > n de manera que
x C
n
, es decir la sucesion de conjuntos {C
n
}
n1
es decreciente y adem as,
puesto que la funcion f
X
es nita en todo punto, se tiene
T

n=1
C
n
= .
Luego tambien se tendr a
lm
n
P
X
(C
n
) = 0.
Podemos descomponer a B = (B C
n
)
U
(B C
0
n
) con lo cual se tiene
P
X
(B) = P
X
(B C
n
) +P
X

B C
0
n

.
Ahora calculamos P
X
(B C
0
n
). Para ello observemos que para todo n
N
P

B C
0
n

=
Z

Z
BC
0
n
f
X
(x) dx
n
Z

Z
BC
0
n
dx
= nV ol

B C
0
n

nVol (B)
= 0.
Entonces para todo n N resulta
P
X
(B) = P
X
(B C
n
) P
X
(C
n
) ,
de manera que pasando al lmite se concluye que P
X
(B) = 0.
Observaci on.
Existe una diferencia importante entre los vectores discretos y los ab-
solutamente continuos. Recordemos que un vector es discreto si y s olo si
sus componentes son variables discretas. Esto no ocurre en el caso de los
vectores aleatorios absolutamente continuos. Para demostrarlo daremos un
contraejemplo.
Consideremos una variable aleatoria X
1
, con distribucion absolutamente
continua y sea X
2
= X
1
de manera que el vector X =(X
1
, X
2
) tiene como
81
componentes variables aleatorias con distribuciones absolutamente contin-
uas. Ahora veamos que el vector X no puede tener distribucion absoluta-
mente continua.
Para ello observemos que
B = {(x
1
, x
2
) R
2
: x
1
= x
2
}
es una recta en R
2
de manera que tiene volumen cero. Pero sin embargo
P
X
(B) = P ({ : X
1
() = X
2
()) = P () = 1.
Teorema. Sea X =(X
1
, X
2
, ..., X
h
, X
h+1
, ..., X
k
) un vector aleatorio de
dimension k. Consideremos un subconjunto de coordenadas y formemos el
vector aleatorio asociado X

= (X
1
, X
2
, ..., X
h
). Entonces X

tambien es
absolutamente continuo y
f
X
(x
1
, x
2
, ..., x
h
) =
Z
+

Z
+

...
Z
+

f
X
(x
1
, x
2
, ..., x
k
) dx
h+1
dx
h+2
...dx
k
.
(5.4)
Observaci on.
Por comodidad hemos escogido las primeras h componentes pero lo mis-
mo puede hacerse para una colecci on arbitraria. En el caso de una distribu-
ci on bivariada X =(X
1
, X
2
) X

= X
1
f
X
1
(x
1
) =
Z
+

f
X
(x
1
, x
2
) dx
2
.
Demostraci on. Tenemos que
F
X
(x
1
, x
2
, ..., x
h
)
= P
X
((, x
1
] (, x
2
] ... (, x
h
])
= P
X
_
_
(, x
1
] (, x
2
] ... (, x
h
] R R...R
| {z }
kh factores
_
_
=
Z

Z
(,x
1
](,x
2
]...(,x
h
]RR...R
f
X
(t
1
, t
2
, ..., t
k
) dt
1
dt
2
...dt
k
=
Z
+

Z
+

...
Z
+

Z
x
h

...
Z
x
1

f
X
(t
1
, t
2
, ..., t
k
) dt
1
...dt
h
dt
h+1
dt
h+2
...dt
k
Por lo tanto, usando Fubini, se tendra
F
X
(x
1
, x
2
, ..., x
h
)
=
Z
+

Z
+

...
Z
+

Z
x
h

...
Z
x
1

f
X
(t
1
, t
2
, ..., t
k
) dt
1
...dt
h
dt
h+1
dt
h+2
...dt
k
=
Z
x
h

...
Z
x
1

Z
+

Z
+

...
Z
+

f
X
(t
1
, t
2
, ..., t
k
) dt
h+1
dt
h+2
...dt
k

dt
1
...dt
h
82
Luego tenemos que
F
X
(x
1
, x
2
, ..., x
h
) =
Z
x
h

...
Z
x
1

f
X
(t
1
, t
2
, ..., t
h
) dt
1
...dt
h
,
donde f
X
esta dada por (5.4). Esto prueba el Teorema. 2.
83
84
Captulo 6
Transformaciones de
variables y vectores
aleatorios.
En esta secci on estudiaremos como se obtienen las distribuciones de vari-
ables o vectores obtenidos a traves de ciertas tipo de transformaciones.
6.1. Transformaciones de Variables Aleatorias.
Sea (, A, P) un espacio de probabilidad y X una variable aleatoria.
Consideremos una funci on g : R R continua y estrictamente monotona,
es decir, estrictamente creciente o bien estrictamente decreciente. Sabemos
que Y = g (X) es otra variable aleatoria. Queremos estudiar la relacion que
existe entre F
X
y F
Y
.
(1) Caso de g estrictamente creciente.
La imagen de g (R) es un intervalo abierto (a, b) de longitud nita o bien
innita, es decir tambien puede ser y b = .
Si y (a, b) entonces teniendo en cuenta que es estricta mon otona cre-
ciente se tiene
F
Y
(y) = P (Y y) = P (g (X) y) = P

X g
1
(y)

= F
X

g
1
(y)

.
Luego es facil ver que
F
Y
(y) =
_
_
_
0 si y a
F
X

g
1
(y)

si y (a, b)
1 si y b.
(6.1)
(2) Caso de g estrictamente decreciente.
85
Nuevamente la imagen de g es un abierto (a, b) de longitud nita o
innita. Pero ahora como g es estrictamente decreciente se tiene para a <
y < b que
F
Y
(y) = P (Y y) = P (g (X) y) = P

X g
1
(y)

= 1P

X < g
1
(y)

.
Luego
F
Y
(y) =
_
_
_
0 si y a
1 P

X < g
1
(y)

si y (a, b)
1 si y b
(6.2)
Observaci on.
No suponemos de entrada que X sea continua. En el caso de que X sea
continua se tiene que
P

X < g
1
(y)

= P

X g
1
(y)

= 1 F
X

g
1
(x)

,
y por lo tanto
F
Y
(y) =
_
_
_
0 si y a
1 F
X

g
1
(y)

si y (a, b)
1 si y b.
(6.3)
Ahora caracterizaremos la funci on de densidad asociada a Y . Supong-
amos que X tiene distribucion absolutamente continua con densidad f
X
y
adem as que g es derivable.
Distinguimos dos casos como antes
(1) Supongamos que g
0
> 0. Derivando (6.1) obtenemos
f
Y
(y) =
_

_
0 si y a
f
X

g
1
(y)

g
0
(g
1
(y))
si y (a, b)
1 si y b.
(6.4)
(2) Supongamos g
0
< 0. Derivando (6.3) obtenemos
f
Y
(y) =
_

_
0 si y a

f
X

g
1
(y)

g
0
(g
1
(y))
si y (a, b)
1 si y b
Las formulas (6.4) y (6.5 pueden resumirse en
f
Y
(y) =
_

_
0 si y a
f
X(g
1
(y))
|g
0
(g
1
(y))|
si y (a, b)
1 si y b.
(6.5)
86
Esto nos da la expresi on para la densidad de una variable aleatoria in-
ducida para g estrictamente mon otona.
Un caso especial de interes es cuando la transformaci on es afn, es decir
cuando g (x) = cx +d
En este caso Y = g (X) = cX + d y g
0
(x) = c. Como a = y
b = +,teniendo en cuenta que g
1
(y) =
y d
c
obtenemos
f
X
(y) =
1
|c|
f
X

y d
c

.
6.1.1. Distribucion Normal
Hemos visto la distribuci on de una variable normal standarizada X
N (0, 1) cuya funcion densidad es
f
X
(x) =
1

2
exp

x
2

.
El gr aco de esta funcion es la llamada campana (ojiba) de Gauss.
Consideremos ahora nuevos par ametros , llamada media y
2
llamado
varianza
Observaci on. El cuadrado solo recuerda que se trata de un n umero
positivo.
Ahora podemos considerar la nueva variable Y = X + ( > 0).
Estamos en el caso anterior de una tansformaci on afn y por lo tanto
f
Y
(y) =
1

f
X

=
1

2
exp

1
2

2
!
=
1

2
exp

(y )
2
2
!
.
Observaci on.
Se puede interpretar el efecto de la transformacion afn sobre la campana
de Gauss. El factor representa un desplazamiento horizontal de la densi-
dad e indica de alguna manera el centro alrededor del cual se concentra la
densidad, de hecho es es el punto de mayor densidad. El factor de proporcion
, afecta la curvatura de la campana y representa la dispersion respecto del
centro. Un factor 1 (grande) achata la curva hacia el eje x, de manera
que en tal caso se presenta gran dispersion. Un factor 1 (chico) hace
que la probablidad esta mas concentrada cerca de . M as adelante daremos
mas precisiones sobre el signicado de y
2
.
Ejercicio. Se deja como ejercicio mostrar que si Y tiene distribuci on
N(,
2
), entonces X = (Y )/ tiene distribucion N(0, 1).
87
6.2. Transformaciones de vectores aleatorios
Recordemos algunos resultados de c alculo integral en varias variables.
Sea U R
k
un abierto y g : U R
k
una funcion inyectiva de manera
que g : U V = g (U) resulta biyectiva.
Luego existe g
1
: V U. Supongamos que g es diferenciable en cada
punto x U de forma tal que su Jacobiano sea distinto de cero en cada
punto. Es decir
J
g
(x) = det
_
_
_
_
_
_
_
_
_
_
g
1
x
1
g
1
x
2
...
g
1
x
k
g
2
x
1
g
2
x
2
...
g
2
x
k
.
.
.
.
.
.
.
.
.
.
.
.
g
k
x
1
g
k
x
2
...
g
k
x
k
_
_
_
_
_
_
_
_
_
_
6= 0
Entonces g
1
es diferenciable y
J
g
1 (y) =
1
J
g
(g
1
(y))
.
El siguiente teorema permite un cambio de variables para integrales
m ultiples.
Teorema. Sea A U R
k
y f : U R entonces
Z

Z
A
f (x) dx =
Z

Z
g(A)
f

g
1
(y)

|J
g
1 (y) |dy.
donde como siempre dx = dx
1
dx
2
, , , dx
k
y dy = dy
1
dy
2
, , , dy
k
.
Observaci on.
Se pide que A sea un dominio de integraci on, en nuestro caso bastara que
sea un conjunto Boreliano.
Sea ahora X =(X
1
, X
2
, ..., X
k
) un vector aleatorio con distribuci on abso-
lutamente continua y sea f
X
su densidad. Supongamos que U es un abierto
de R
k
tal que P
X
(U) = 1, esto signica que la probabilidad se concentra
en U, es decir con probabilidad 1 los valores del vecor X estan en U y en
consecuencia la densidad f
X
fuera de U es cero.
Consideremos ahora g : U R
k
inyectiva diferenciable tal que para
todo x U se tiene J
g
(x) 6= 0. El siguiente teorema permitira encontrar la
distribucion del vector Y =g (X) . Denotemos por I
V
es la funcion carac-
terstica o indicadora de un conjunto conjunto V )
I
V
(y) =

1 si y V
0 si y / V
88
Teorema. Supongamos dadas las condiciones anteriores y denamos
Y =g (X) . Luego la distribuci on de este vector resulta ser tambien absolu-
tamente continua y se tendr a.
f
Y
(y) = f
X

g
1
(y)

|J
g
1 (y) |I
V
(y) ,
donde V = g(U)
Demostraci on. Para esto bastara demostrar que si B B
k
entonces
P
Y
(B) =
Z

Z
B
f
X

g
1
(y)

J
g
1 (y)

I
V
(y) dy. (6.6)
Usando el Teorema de cambio de variable en integrales multiples tenemos
que
P
Y
(B) = P (Y B V )
= P (g (X) B V )
= P

X g
1
(B V )

=
Z

Z
g
1
(BV )
f
X
(x) dx.
Usando la f ormula de cambio de variables en integrales m ultiples resulta
P
Y
(B) =
Z

Z
g
1
(BV )
f
X
(x) dx
=
Z

Z
g(g
1
(BV ))
f
X

g
1
(y)

J
g
1 (y)

dy.
Sea g : U W y H W. Es facil ver que una raz on necesaria y suciente
para que g

g
1
(H)

= H es que H g (U). Como B V V = g(U)


resulta g(g
1
(B V )) = B V y por lo tanto
P
Y
(B) =
Z

Z
g(g
1
(BV ))
f
X

g
1
(y)

J
g
1 (y)

dy
=
Z

Z
BV
f
X

g
1
(y)

J
g
1 (y)

dy.
Esto muestra que vale (6.6).2
El anterior resultado vale cuando g es diferenciable y biunvoca de un
abierto de R
k
en R
k
. Veamos ahora que ocurre cuando g es una funci on
diferenciable de un abierto de R
k
en R
j
con j 6= k. Si j > k nada podremos
hacer puesto que en tal caso el conjunto g(U) es un conjunto de dimension
k y por lo tanto tiene volumen 0. Luego como P
Y
(g(U)) = 1, Y no puede
ser absolutamente continuo.
89
Consideremos ahora j < k y sea U un abierto en R
k
. Supongamos
que g = (g
1
, ..., g
j
) : R
k
R
j
, donde cada g
i
: U R, 1 i j, es una
funcion diferenciable. Trataremos de derivar la densidad f
Y
de Y =g(X).
Esto es posible si se pueden encontrar funciones diferenciables g
i
: R
k

R
k
, i = j + 1, ..., h tales que si llamamos e g = (g
1
, ..., g
j
, g
j+1
, ...., g
k
) la
funcion e g : R
k
R
k
resulte inyectiva y J
e g
(y) 6=0 para todo y U. En,
efecto en este caso por el teorema anterior podremos encontrar la densidad
de
e
Y=e g(X) que denominaremos f
e
Y
. Luego la densidad de Y sera
f
Y
(y
1
, ...y
j
) =
Z

...
Z

f
e
Y
(y
1
, ..., y
j
, y
j+1
..., y
k
)dy
j+1
...dy
k
.
Veamos un ejemplo del uso de este procedimiento. Sea X =(X
1
, X
2
) y
consideremos Y = X
1
+X
2
. Si denimos g : R
2
R por g (x
1
, x
2
) = x
1
+x
2
,
vemos que Y = g (X) . En este caso 1 = j < k = 2. Ahora consideremos
e g : R
2
R
2
, denida por e g (x
1
, x
2
) = (x
1
+x
2
, x
2
) y Y =(Y
1
, Y
2
) con Y
1
=
g (X) e Y
2
= X
2
. Luego estamos en las condiciones del teorema puesto que
e g : R
2
R
2
es biyectiva, diferenciable su Jacobiano es
J
e g
(x
1
, x
2
) = det

1 1
0 1

= 1.
con inversa e g
1
(y
1
, y
2
) = (y
1
y
2
, y
2
) diferenciable. Tambien tenemos X
1
=
Y
1
Y
2
y X
2
= Y
2
.
De acuerdo a lo que hemos visto
f
Y
(y) = f
X

e g
1
(y)

|J
e g
1 (y) |I
V
(y) =
= f
X
(y
1
y
2
, y
2
)I
V
(y
1
, y
2
)
y
f
Y
(y) =
Z

f
X
(y y
2
, y
2
)I
V
(y, y
2
) .
6.2.1. Algunas aplicaciones.
1. Sea X =(X
1
, X
2
, ..., X
k
) un vector aleatorio tal que sus sus com-
ponentes son variables aleatorias independientes con identica distribuci on
N(0, 1). Entonces la funcion de densidad asociada al vector X es
f
X
(x) =
1
q
(2)
k

k
i=1
exp

1
2
x
2
i

=
=
1
q
(2)
k
exp

k
X
i=1
x
2
i
!
=
=
1
q
(2)
k
exp

1
2
||x||
2

90
Ahora consideremos una matriz AR
kk
ortogonal, esto es que AA
t
= I.
Denimos la funci on g : R
k
R
k
denida por g (x) = xA y consid-
eramos el vector aleatorio Y = XA = g (X) . Calculando el Jacobiano de g
vemos que J
g
(x) = det A = 1, de manera que la densidad queda
f
Y
(y) = f
X

g
1
(y)

|J
g
1 (y) |I
R
k (y)
= f
X

g
1
(y)

=
1
q
(2)
k
exp

1
2
||y||
2

.
Es decir las transformaciones ortogonales preservan las distribuciones
N(0, 1) independientes.
2. Hemos visto anteriormente que si X N(0, 1) e Y = X + en-
tonces Y N

,
2

. Y recprocamente si Y N

,
2

y X =
Y

entonces X N (0, 1) .
Ahora supongamos que Y
1
, Y
2
, ..., Y
k
son variables aleatorias independi-
entes cada una con distribucion N (
i
,
i
) i = 1, 2, ..., k respectivamente.
Queremos encontrar la distribuci on de una transformacion an de las
variables Y
i
. Es decir la distribucion de una variable aleatoria de la forma
Z =
P
k
i=1

i
Y
i
+.
Para esto necesitamos probar el siguiente lema
Lema. Sean X
1
, X
2
, ..., X
k
variables aleatorias independientes identi-
camente distribuidas, con distribuci on N(0, 1). Sean b
1
, b
2
, ..., b
k
n umeros
reales tales que
P
k
i=1
b
2
i
= 1. Luego la variable aleatoria Z =
P
k
i=1
b
i
X
i
tiene distribuci on N (0, 1) .
Demostraci on
Sea a
1
=(b
1
, b
2
, ..., b
k
)
0
, donde
0
indica transpuesto . Entonces ||a
1
|| =
1. Podemos extender {a
1
} a una base ortonormal de R
k
, es decir existen vec-
tores columnas a
2
, a
3
, ..., a
k
ortogonales y unitarios tales que {a
1
, a
2
, a
3
, ..., a
k
}
es una base ortonormal de R
k
.
Luego la matriz A cuyas columnas son los vectores a
j
, j = 1, 2, ..., k
es una matriz ortogonal. Denamos el vector aleatorio Y = XA, y sea Y
i
su componente i. Por lo visto anteriormente las variables aleatorias Y
i
i =
1, 2, ..., k tambien son independientes con distribuci on N (0, 1) . En partic-
ular Y
1
=
P
k
i=1
b
i
X
i
= Z tiene distribucion N (0, 1) 2.
Ahora podemos probar el siguiente Teorema
Teorema. Sean Y
1
, Y
2
, ..., Y
k
variables aleatorias independientes cada
una con distribucion N (
i
,
i
) , i = 1, 2, ..., k respectivamente. Entonces
Z =
P
k
i=1

i
Y
i
+ tiene distribucion
N

k
X
i=1

i
+,
X

2
i

2
i
!
.
91
Demostraci on. Escribimos
Z =
k
X
i=1

i
Y
i

i

i
+ +
X

i
=
k
X
i=1

i
X
i
+,
donde X
i
= (Y
i

i
)/
i
y
= +
X

i
(6.7)
Sabemos que para i = 1, 2, ..., k las variables X
i
son independientes con
distribucion N(0, 1) . Luego podemos escribir a Z de la siguiente manera
Z = A
k
X
i=1

i
A
X
i
+,
donde A esta dada por
A =

k
X
i=1

2
i

2
i
!
1
2
. (6.8)
Sea b
i
=

i

i
A
, luego
k
X
i=1
b
2
i
=
k
X
i=1

i
A

2
=
1
A
2
k
X
i=1
(
i

i
)
2
= 1.
Denamos W =
P
k
i=1
b
i
X
i
. Luego de acuerdo al lema anterior se ten-
dra que
W =
k
X
i=1
b
i
X
i
tiene distribucion N(0, 1). Por lo tanto como
Z = A
k
X
i=1

i
A
X
i
+ = AW + N

, A
2

,
se tendra que Z tiene distribuci on N

, A
2

. Luego el teorema se deduce de


(6.7) y (6.8).2
6.2.2. Transformaciones no inyectivas
Sea g : U R
k
R
k
con U abierto y el vector aleatorio X =(X
1
, X
2
, ..., X
k
)
con distribuci on absolutamente continua. Supongamos que exten h abiertos
U
1
, U
2
, ..., U
h
disjuntos de a dos, es decir U
i
U
j
= si i 6= j, tales que
P

U
h
i=1
U
i

= 1.
92
Ahora supongamos tambien que
g :
h
]
i=1
U
i
R
k
es inyectiva y diferenciable en en cada U
i
, con jacobiano no nulo. Llamemos
g
i
= g|
U
i
, V
i
= g (U
i
) y consideremos Y =g (X) . En este caso existe la
inversa de cada g
i
que llamaremos g
1
i
: V
i
U
i
y se tendra
J
g
1
i
(y) =J
g
i
(g
1
i
(y)) y V
i
Teorema. Bajo las condiciones anteriores la distribuci on de Y es absoluta-
mente continua y su densidad esta dada por
f
Y
(y) =
h
X
i=1
f
X

g
1
i
(y)

|J
g
1
i
(y) |I
V
i
(y)
Demostraci on. Bastara probar probar que para todo B B
k
se tiene
P
Y
(B) =
Z

Z
B
h
X
i=1
f
X

g
1
i
(y)

|J
g
1
i
(y) |I
V
i
(y) dy (6.9)
Usando que P

U
h
i=1
U
i

= 1 y
{Y B} {X U
i
} = {Y B V
i
} {X U
i
} = {X g
1
i
(B V
i
)}
obtenenemos
P
Y
(B) = P (Y B)
= P

h
]
i=1
{Y B} {X U
i
}
!
=
h
X
i=1
P ({Y B} {X U
i
})
=
h
X
i=1
P

X g
1
i
(B V
i
)

=
h
X
i=1
P
X

g
1
i
(B V
i
)

=
h
X
i=1
Z

Z
g
1
i
(BV
i
)
f
X
(x) dx
93
Como las funciones g
i
son biunvocas en cada U
i
, usando la f ormula de
cambio de variables en integrales m ultiples se tiene
P
Y
(B) ==
h
X
i=1
Z

Z
g
1
i
(BV
i
)
f
X
(x) dx
=
h
X
i=1
Z

Z
BV
i
f
X

g
1
i
(y)

| J
g
1
i
(y) | dy
=
Z

Z
B
h
X
i=1
f
X

g
1
i
(y)

| J
g
1
i
(y) | I
V
i
(y) dy,
y por lo tanto se cumple (6.9).2
6.2.3. Distribucion Chi-cuadrado con un grado de libertad.
Esta aplicaci on tiene gran importancia en estadstica.
Sea X N (0, 1) y consideremos g : R R g (x) = x
2
. Denimos
Y = g (X) = X
2
Denimos U
1
= {x : x < 0} y U
2
= {x : x > 0}. Luego g
1
1
(y) =

y
y g
1
2
(y) =

y.
En este caso V
1
= V
2
= R
>0
y
J
g
1
1
(y) =
1
2
y

1
2
J
g
1
2
(y) =
1
2
y

1
2
Luego teniendo en cuienta que
f
X
(x) =
1

2
exp

x
2
2

,
y que V
1
= V
2
= R
>0
, por el Teorema anterior se tiene
f
Y
(y) =
1

2
exp

y
2

1
2
y

1
2
I
V
1
(y) +
1

2
exp

y
2

1
2
y

1
2
I
V
2
(y)
=
1

2
exp

y
2

1
2
I
{y: y>0}
(y) .
6.3. Algunas distribuciones complementarias.
6.3.1. Distribucion Gamma
En primer lugar introducimos la funci on Gamma, que resulta ser una
extensi on del concepto de factorial sobre los n umeros naturales.
94
Denimos la funcion
: R
>0
R
0
de la siguiente manera
() =
Z
+
0
exp(x) x
1
dx.
Para probar la existencia de este integral la descomponemos como
() =
Z
1
0
exp(x) x
1
dx +
Z
+
1
exp(x) x
1
dx
= I +II.
Es facil ver que I es nita, teniendo en cuenta que exp(x) 1 sobre
(0, 1)
I =
Z
1
0
exp(x) x
1
dx
Z
1
0
x
1
dx =
x

1
0
=
1

.
Para estudiar la convergencia de la segunda integral observemos que de
acuerdo al desarrollo de Taylor
exp

x
2

=

X
k=0
1
k!

x
2

k
se tiene que por tratarse de una serie de terrminos positivos, para todo k N
exp

x
2

1
k!

x
2

k
para todo k N.
Entonces
x
k
C
k
exp

x
2

,
donde C
k
= k!2
k
. Tomamos ahora k > 1, luego se obtiene
II =
Z
+
1
exp(x) x
1
dx

Z
+
1
exp(x) C
k
exp

x
2

dx
C
k
Z
+
1
exp

x
2

dx < .
Algunas propiedades.
P1. Si > 0 entonces ( + 1) = ()
95
Para ello integraremos por partes tomando u = x

; dv = exp(x) dx.
Luego se tiene v = exp(x) y du = x
1
,de donde resulta
( + 1) =
Z
+
0
exp(x) x

dx
=
Z
+
0
udv
= x
a
exp(x/) |

0

Z
+
0
(exp(x)) x
1
= x

exp(x) |

0
+
Z
+
0
exp(x) x
1
.
Como lm
x
x

exp(x) = 0, resulta que ( + 1) = () .


P2. es una extension del factorial. M as precisamente para todo n
N se tiene (n) = (n 1)!. La prueba se hace por inducci on. Si n = 1
entonces (1) = 1 = 0!. Supongamosahora que la propiedad que vale para
n y veamos que entonces vale para n+1. Usando P1 y la hipotesis inductiva
tenemos (n +1) = n(n) = n((n 1)!) = n!, con locual la propiedad ueda
demostrada.
Denici on. Se dene la distribucion Gamma con parametros > 0 y 1(
(, 1) ) como la distribucion absolutamente continua cuya funci on densidad
es
f (x) =
1
()
exp(x) x
1
I
[0,)
.
Observaciones.
1. De acuerdo a la defrinici on de la funci on Gamma es claro que f es un
densidad ya que
Z
+

f (x) = 1.
2. Una vez denida la distribucion (, 1) deniremos la distribuci on
(, ) para todo > 0. Para ello consideremos X (, 1) . Entonces la
distribucion (, ) se dene como la distribucion de Y = X/. Tomando
g (x) = x/ y usando la formula para la transformacion de densidades se
tiene
f
Y
(y) = f
X

g
1
(y)

|J
g
1 (y) |I
[0,)
(y) =
=
1
()
exp(y) (y)
1
||I
[0,)
(y) =
=

()
exp(y) y
1
I
[0,)
(y).
96
3. Recordemos que si X N (0, 1) entonces Y = X
2
tiene una distribu-
ci on chi-cuadrado con un grado de libertad. Mas precisamente
f
Y
(y) =
1

2
y

1
2
exp

y
2

I
[0,)
(y). (6.10)
Ahora bien si consideramos Z (1/2, 1/2) entonces su densidad es
f
Z
(z) =

1
2
1
2

1
2
exp

z
2

1
2
I
[0,)
(z) =
=
1

1
2
exp

z
2

1
2
I
[0,)
(z), (6.11)
Las densidades (6.10) y (6.11 dieren solo en una constante, luego deben
ser iguales Esto se muestra integrando las densidades sobre R, ya que
amba integrales deben ser 1. Por lo tanto la distribucion
2
con un grado
de libertad coincide con la distribucion

1
2
,
1
2

. Adem as igualando las


constantes de ambas densidades se tiene la identidad
1

2
=
1

1
2
,
o equivalentemente

1
2

.
Necesitaremos el siguiente lema
Lema. Sea W =(W
1
, W
2
) un vector aleatorio y supongamos que
f
W
(w) = g
1
(w
1
) g
2
(w
2
) ,
donde g
1
es una funci on de densidad. Entonces:
(a) f
W
2
= g
2
y por lo tanto g
2
es una funcion de densidad.
(b) f
W
1
= g
1
(c) Ademas las variables W
1
y W
2
son independietes.
Demostraci on. Como
Z
+

g
1
(w
1
) dw
1
= 1,
se tiene que
f
W
2
(w
2
) =
Z
+

g
1
(w
1
) g
2
(w
2
) dw
1
=
= g
2
(w
2
)
Z
+

g
1
(w
1
) dw
1
= g
2
(w
2
) .
97
Esto prueba (a). Para ver (b) se usa el mismo argumento . Como (a) y
(b) implican que
f
W
(w
1
, w
2
) = f
W
1
(w
1
)f
W
2
(w
2
),
resulta que W
1
y W
2
son independientes.
Lema. Sean Y
1
, Y
2
variables aleatorias independientes con distribuciones
(
1
, ) y (
2
, ) respectivamente. Denamos W
1
= Y
1
+ Y
2
, W
2
=
Y
1
/(Y
1
+Y
2
). Entonces se tiene
(a) La distribucion de W
1
es W (
1
+
2
, )
(b) W
2
tiene densidad
(
1
+
2
)
(
1
) (
2
)
w

1
1
2
(1 w
2
)

2
1
I
[0,1]
(w
2
).
(c) W
1
y W
2
son independientes
Demostraci on. La demostraci on se basa en el teorema del cambio de vari-
able. Sea el abierto U R
2
denido por U = {(y
1
, y
2
), y
1
> 0, y
2
> 0}.
Luego P
Y
(U) = 1.
Consideremos la transformacin g : U R
2
denida por
g (y
1
, y
2
) =

y
1
+y
2
,
y
1
y
2
+y
1

.
Es facil ver que V = g(U) = (0, ) (0, 1) y
g
1
(w
1
, w
2
) = (w
1
w
2
, w
1
w
1
w
2
)
= (w
1
w
2
, w
1
(1 w
2
)) .
Luego
J
g
1 (w
1
, w
2
) = det

w
2
1 w
2
w
1
w
1

= w
1
w
2
w
1
(1 w
2
) = w
1
,
y por lo tanto |J
g
1 (w
1
, w
2
) | = w
1
.
Consideramos ahora la densidad del vector Y =(Y
1
, Y
2
) . Como se su-
puso imdependencia entre Y
1
y Y
2
,esta densidad es el producto de las den-
sidades marginales y luego
f
Y
(y
1
, y
2
) =

1
+
2
(
1
) (
2
)
exp((y
1
+y
2
)) y

1
1
1
y

2
1
2
I
(0,)
(y
1
)I
(0,)
(y
2
).
Luego de acuerdo al teorema del cambio de variable y el hecho que
I
V
(w
1
, w
2
) = I
(0,)(0,1)
(w
1
, w
2
) = I
(0,)
(w
1
)I
(0,1)
(w
2
)
98
se tiene
f
W
(w
1
, w
2
)
=

1
+
2
(
1
) (
2
)
exp(w
1
) (w
1
w
2
)

1
1
(w
1
(1 w
2
))

2
1
w
1
I
V
(w
1
, w
2
)
=

1
+
2
(
1
+
2
)
w

1
+
2
1
1
exp(w
1
) I
(0,)
(w
1
)

(
1
+
2
)
(
1
) (
2
)
w

1
1
2
(1 w
2
)

2
1
I
(0,1)
(w
2
)

g
1
(w
1
)g
2
(w
2)
donde
g
1
(w
1
) =

1
+
2
(
1
+
2
)
w

1
+
2
1
1
exp(w
1
) I
(0,)
y
g
2
(w
2
) =
(
1
+
2
)
(
1
) (
2
)
w

1
1
2
(1 w
2
)

2
1
I
(0,1)
(w
2
)
El primer factor g
1
corresponde a una densidad (
1
+
2
, ) .
Del segundo factor no podemos a priori armar nada. Pero de acuerdo
al lema previo resulta que W
1
tiene distribucion (
1
+
2
, ) y
g
2
(w
2
) =
(
1
+
2
)
(
1
) (
2
)
w

1
1
2
(1 w
2
)

2
1
I
(0,1)
(w
2
)
es la funci on de densidad de W
2
. Finalmente tenemos que W
1
y W
2
son
independientes. 2.
6.4. Distribucion Beta:
Denici on. Se dene la distribucion Beta con parametros
1
,
2
, que
denotaremos por (
1
,
2
) , como la distribucion absolutamente continua
cuya funcion de densidad es:
f (w) =
(
1
+
2
)
(
1
) (
2
)
w

1
1
(1 w)

2
1
I
(0,1)
(w)
Observaci on. Esta funcion es una densidad por el resultado anterior.
Por lo tanto podemos deducir que
Z
1
0
(
1
+
2
)
(
1
) (
2
)
w

1
1
(1 w)

2
1
dw = 1,
99
y por lo tanto
Z
1
0
w

1
1
(1 w)

2
1
dw =
(
1
) (
2
)
(
1
+
2
)
.
Corolario. Sean Y
1
, Y
2
, ..., Y
n
variables independientes tales que Y
i
tiene
distribucion (
i
, ) . Entonces
P
n
i=1
Y
i
tiene distribucion (
P
n
i=1

i
, ) .
Demostraci on.
Se deduce de de la proposici on anterior usando inducci on 2.
A continuacion denimos las distribuciones chi-cuadrado con n grados
de libertad y la t- de Student. Ambas distribuciones son de gran importancia
en Estadstica. Volveremos m as adelante sobre ellas.
6.5. Distribucion Chi-cuadrado:
Supongamos que se tienen n variables independientes X
i
, i = 1, 2, ..., n
con distribuci on N (0, 1) . Sabemos que cada Y
i
= X
2
i
tiene distribuci on
2
con 1 grado de libertad, la cual que coincide con la distribucion (1/2, 1/2) .
Se dene la distribucion chi-cuadrado con n grados de libertad que sim-
bolizaremos por
2
n
como la distribucion de la variable aleatoria Y =
P
n
i=1
X
2
i
.
De acuerdo a los resultados anteriores, como cada X
2
i
tiene distribuci on

2
1
y estas variables son independientes, se obtiene que Y tiene distribuci on
(n/2, 1/2) . Por lo tanto la distribucion
2
n
coincide con la distribuci on
(n/2, 1/2) .
6.5.1. Distribucion de Student
Supongamos que U tiene distribucion N (0, 1) y V distribuci on
2
n
con U
y V independientes. Luego se dene la distribucion de Student con n grados
de libertad, que simbolizaremos con t
n
, como la distribucion de
T =
U
p
V/n
.
Se deja como ejercicio de la practica mostrar que la densidad de T es
f
T
(t) =

n+1
2

n
2

1 +
t
2
n

n + 1
2
.
El graco de esta densidad es simetrico respecto al origen (funci on par)
y con forma de campana. Se puede probar que cuando n tiende a , f
T
converge a la densidad de la normal.
100
6.6. Otro tipo de variables aleatorias.
Adem as de las variables discretas y absolutamente continuas existen
otros tipos de variables. Un estudio exhausivo de los tipos de variables aleato-
rias o requiere algunos conocimientos de la teora de la medida. Aqui intro-
duciremos las variables mixtas cuya funcion distribucion es una combinaci on
convexa de funciones de una distribuci on discreta y otra absolutamente con-
tinuas.
6.6.1. Variables aleatorias mixtas.
Denici on. Decimos que F es una funci on de distribucion mixta si
es una combinaci on convexa de una distribucion absolutamente continua
y otra discreta. M as precisamente si existen , 0 < < 1 , F
1
funcion de
distribucion absolutamente continua, F
2
funcion de distribucion discreta tal
que
F = (1 ) F
1
+F
2
(6.12)
Observaci on.
1. Es facil probar que F es una funci on de distribuci on. Es monotona no
decreciente y continua a la derecha por ser suma de funciones de ese tipo.
Por otro lado, tenemos que
lm
x+
F (x) = lm
x+
((1 ) F
1
+F
2
) (x)
= (1 ) lm
x+
F
1
(x) + lm
x+
F
2
(x)
= (1 ) + = 1
Finalmente, tambien vale que:
lm
x
F (x) = lm
x
((1 ) F
1
+F
2
) (x)
= (1 ) lm
x
F
1
(x) + lm
x+
F
2
(x)
= 0
2. Veamos ahora que efctivamente una variable aleatoria mixta no es ni
absolutamente continua ni discreta.
Sean P
i
, la probabilidad asociada F
i
, i = 1, 2 y R
2
el rango de una
variable con distribucion F
2
. Luego si P es la probabiludad asociada a F,
es facil ver que
P(B) = (1 )P
1
(B) +P
2
(B) B B
1
101
Por lo tanto R
2
es numerable yP
2
(R
2
) = 1. Por otro, compo R
2
es
numerable lado P
1
(R
2
) = 0 P
F
1
(R
F
2
) = 0. Luego, teniendo en cuenta que
P
F
= (1 ) P
F
1
+P
F
2
P (R
2
) = (1 ) P
1
(R
1
) +P
2
(R
2
) = > 0
Por loque se educe que F no corresponde a una distribucion absoluta-
mente continua.
Para ver que no es discreta veamos que sobre un conjunto numerable
arbitrario su probabilidad es menor que 1. Sea A un conjunto numerable;
teniendo en cuenta que F
1
es absolutamente continua vale que P
1
(A) =
0. Luego
P (A) = (1 ) P
1
(A) +P
2
(A) < 1.
Siendo A arbitrario, F no puede ser discreta.
Ejemplo.
1. Sea U U [0, 1] y consideremos V mn

U,
1
2

.
Entonces
F
V
(u) =

u si u <
1
2
1 si u
1
2
Claramente P (V = 1/2) = P(1/2 U 1) = 1/2 de manera que V no
es absolutamente continua. Tampoco es discreta.
La combinacion convexa en este caso es
F =
1
2
F
1
+
1
2
F
2
done F
1
es la distribuci on de una U[0, 1/2) y F
2
la distribucion de uan
variable discreta que tiene probabilidad 1 en x =
1
2
.
2. Una manera de obtener la distribucion mixta (6.12) es la siguiente.
Consideremos variables aleatorias independientess X
1
con distribuci on F1,
X
2
con distribuci on F
2
y U que toma valores 0 y 1 con probabilidades
U =

0 con probabilidad 1
1 con probabilidad
Denimos la variable
X =

X
1
si U = 0
X
2
si U = 1
Veamos que la distribucion de X es una combinaci on convexa de X
1
y
X
2
.
Teniendo en cuenta la independencia de las variables
102
F
X
(x) = P
X
((, x])
= P ({X x})
= P

{X
1
x} {U = 0}
]
{X
2
x} {U = 1}

=
= P ({X
1
x} {U = 0}) +P ({X
2
x} {U = 0}) =
= P (X
1
x)P({U = 0}) +P( X
2
x)P (U = 1)
= (1 )P (X
1
x) +P (X
2
x) =
= F
1
(x) + (1 ) F
2
(x)
103
104

Das könnte Ihnen auch gefallen