Sie sind auf Seite 1von 35

Parte 1 - Probabilidades Prof. Mara B.

Pintarelli
83
5- VARIABLES ALEATORIAS BIDIMENSIONALES

5.1 Generalidades

Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado
del experimento de inters se registra como un nico nmero real.
En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio,
dos o ms caractersticas numricas. Por ejemplo, de los remaches que salen de una lnea de produccin
nos puede interesar el dimetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las
dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricacin, los
podemos representar asocindoles dos variables aleatorias X e Y que pueden pensarse como una variable
aleatoria bidimensional: ( ) Y X, .

Sea un experimento aleatorio y S un espacio muestral asociado a l. Sean R S X : , R S Y : , que
a cada resultado S s le asignan el par de nmeros reales ( ) y x,
Llamaremos a ( ) Y X, variable aleatoria bidimensional.
Si en lugar de dos variables aleatorias, tenemos n variables aleatorias
n
X X X ,..., ,
2 1
, llamaremos a
( )
n
X ,..., X , X
2 1
variable aleatoria n-dimensional

En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir
nos concentraremos en variables aleatorias bidimensionales por cuanto son las ms simples de
describir, fundamentalmente en relacin a la notacin. Pero debemos tener presente que las propiedades
que estudiemos para ellas se pueden extender sin demasiada dificultad al caso general.

Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la
v.a. (X,Y) y lo indicaremos
XY
R . En otras palabras ( ) ( ) ( )
)
`

= = = S s con s Y y e s X x : y , x R
XY
, es
decir, es la imagen por ( ) Y , X del espacio muestral S.
Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano:
2
R R
XY
. Como antes,
puede considerarse al recorrido
XY
R como un espacio muestral cuyos elementos son ahora pares de
nmeros reales.

Como con cualquier espacio muestral, segn el nmero de elementos que lo constituyen, podemos
clasificar a los recorridos
XY
R en numerables (finitos o infinitos) y no-numerables.
Los recorridos numerables son, en general, de la forma
( ) ( ) ( ) ( ) { }
m n j i XY
y , x ,..., y , x , y , x m ,.. , j y n ,..., , i con y , x R
2 1 1 1
2 1 2 1 =
)
`

= = = (finito)
( ) ( ) ( ) { } ,... y , x , y , x ,.. , j y ,... , i con y , x R
j i XY 2 1 1 1
2 1 2 1 =
)
`

= = = (infinito numerable)

Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por
ejemplo:

( )
)
`

= d y c ; b x a : y , x R
XY
(no numerable)
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
84
( ) { } 1 : ,
2 2
+ = y x y x R
XY
(no numerable)

( )
)
`

= =
3 2 1
c , c , c y , b x a : y , x R
j j XY
(no numerable mixto)

cuyas grficas se pueden apreciar en la figura siguiente. Notar en el ltimo recorrido, X es v.a. continua
e Y discreta.


Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera:
( ) Y , X es v.a. bidimensional discreta si X e Y son discretas
( ) Y , X es v.a. bidimensional continua si X e Y son continuas
El caso X continua, Y discreta (o viceversa) no lo consideramos.

Sea ( ) Y , X una variable aleatoria bidimensional discreta y sea
XY
R su recorrido (numerable). Sea
R R : p
XY
una funcin que a cada elemento ( )
j i
y , x le asigna un nmero real ( )
j i
y , x p tal que
( ) ( )
XY j i j i j i
R y , x y , x p y Y , x X P = |

\
|
= = y que verifica.
a) ( ) ( )
XY j i j i
R y , x y , x p 0
b) ( ) ( )
( )

= =
XY j i
R y x
j i
i j
j i
y x p y x p
,
1 , ,
A esta funcin la llamaremos funcin de probabilidad puntual conjunta de la variable aleatoria
bidimensional ( ) Y , X . En forma abreviada la designaremos fdp conjunta.

Ejemplos:
1-Dos lneas de produccin, sealadas I y II, manufacturan cierto tipo de artculo a pequea escala.
Supngase que la capacidad mxima de produccin de la lnea I es cinco artculos por da, mientras que
para la lnea II es 3 artculos/da. Debido a los innumerables factores presentes en todo proceso de
produccin, el nmero de artculos realmente producido por cada lnea puede pensarse como una
variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( ) Y , X discreta,
donde la primera componente X corresponde a la produccin de la lnea I y la segunda componente
Y a los artculos que salen de la lnea II. La fdp conjunta correspondiente a variables aleatorias
bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a.
( ) Y , X que nos interesa aqu la tabla correspondiente a ( )
j i
y , x p es

0
0
0
0
0
a b x
c
d
y y y
1
2
3
1 2 a b x
R
XY
c
1

c
2

c
3

-1
-1
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
85
X Y
0 1 2 3 4 5
0 0 0.01 0.03 0.05 0.07 0.09
1 0.01 0.02 0.04 0.05 0.06 0.08
2 0.01 0.03 0.05 0.05 0.05 0.06
3 0.01 0.02 0.04 0.06 0.06 0.05

Cul es la probabilidad de qu salgan ms artculos de la lnea I que de la lnea II?

Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la
tabla que representa a ( )
j i
y , x p .
Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la
v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y
( 0,1,2,3). Para determinar el valor de la ( )
j i
y , x p cuando la v.a. ( ) Y , X toma el valor ( )
j i
y , x
consideramos el nmero que se encuentra en la columna correspondiente a
i
x X = y la fila
correspondiente a
j
y Y = . Por ejemplo: ( ) ( ) 05 0 2 4 2 4 . Y , X P , p = = = = .
Podemos verificar fcilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las
condiciones a) ( ) ( )
XY j i j i
R y , x y , x p 0 y b) ( )
( )

=
XY j i
R y , x
j i
y , x p 1.
Para contestar la pregunta del enunciado, consideremos el suceso
XY
R B definido

B: es el suceso que ocurre cuando la lnea I produce ms artculos que la lnea II o,
{ } Y X B > = . Luego:
( ) ( ) ( )

= >
= = > =
3
0
j j i
y y x
j i
y , x p Y X P B P 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+
+0.05+0.05+0.06+0.06+0.05=0.75.

2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en
diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e
independientemente del otro.
Sean las variables aleatorias X: n de clientes que escogen la caja 1 e Y: n de clientes que escogen la
caja 2. Hallar la fdp conjunta de (X,Y)

Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados
{ } ) 3 , 3 ( ); 2 , 3 ( ); 1 , 3 ( ); 3 , 2 ( ); 2 , 2 ( ); 1 , 2 ( ); 3 , 1 ( ); 2 , 1 ( ); 1 , 1 ( = S donde la primera componente del par indica la
caja elegida por el cliente 1 y la segunda componente del par indica la caja elegida por el cliente 2.
Adems notar que X como Y pueden tomar los valores 0, 1, 2
El punto muestral (3,3) es el nico punto muestral que corresponde al evento { } 0 , 0 = = Y X
Entonces
9
1
) 0 , 0 ( = = = Y X P
; pensando de forma anloga los otros casos:
9
2
) 0 , 1 ( = = = Y X P
;
9
1
) 0 , 2 ( = = = Y X P
;
9
2
) 1 , 0 ( = = = Y X P
,
9
2
) 1 , 1 ( = = = Y X P
,
9
1
) 2 , 0 ( = = = Y X P
; 0 ) 2 , 2 ( ) 2 , 1 ( = = = = = = Y X P Y X P
Disponemos estas probabilidades en una tabla de la siguiente forma


Parte 1 - Probabilidades Prof. Mara B. Pintarelli
86





5.2 - Funciones de distribucin marginales de una v.a. (X,Y) discreta

En el ejemplo 1, supongamos que queremos saber cul es la probabilidad de que el nmero de artculos
producidos por la lnea I sea 2, o sea ) 2 ( = X P
Como el evento { } 2 = X es igual a { } { } { } { } { } ( ) 3 2 1 0 2 = = = = = Y Y Y Y X , y a su vez
{ } { } { } { } { } ( )
{ } { } ( ) { } { } ( ) { } { } ( ) { } { } ( ) 3 2 2 2 1 2 0 2
3 2 1 0 2
= = = = = = = = =
= = = = = =
Y X Y X Y X Y X
Y Y Y Y X

Entonces

( )
{ } { } ( ) { } { } ( ) { } { } ( ) { } { } ( )

=
= = = = = + = = + = = + = = =
= = = + = = + = = + = = =
= =
3
0
) , 2 ( ) 3 , 2 ( ) 2 , 2 ( ) 1 , 2 ( ) 0 , 2 (
3 2 2 2 1 2 0 2
2
j
j Y X P Y X P Y X P Y X P Y X P
Y X P Y X P Y X P Y X P
X P

Razonando de la misma forma podemos escribir
( ) 5 ,..., 1 , 0 ) , (
3
0
= = = = =

=
i j Y i X P i X P
j

Es decir obtenemos la funcin de distribucin de probabilidad de X

Anlogamente obtenemos
( ) 3 , 2 , 1 , 0 ) , (
5
0
= = = = =

=
j j Y i X P j Y P
i

Que es la funcin de distribucin de probabilidad de Y

En general se las denomina distribuciones marginales de X e Y, y su definicin sera la siguiente

Sea (X,Y) discreta y sea ( )
j i
y , x p (i=1,2,n, j=1,2,,m) su funcin de probabilidad conjunta
(Eventualmente n y/o m pueden ser ).

La funcin de probabilidad marginal de X es

( ) ( ) ( )

=
= = =
m
j
j i i i
y x p x X P x p
1
, (i=1,2,,n)

La funcin de probabilidad marginal de Y es

( ) ( ) ( )

=
= = =
n
i
j i j j
y x p y Y P y q
1
, (j=1,2,,m)

Observacin: Remarcamos que la funcin de probabilidad marginal de X, es decir ( )
i
x p calculada a
partir de ( )
j i
y , x p en la forma indicada, coincide con la funcin de probabilidad de la variable aleatoria
unidimensional X considerada en forma aislada. Anlogamente la funcin de probabilidad marginal de
Y \ X 0 1 2
0 1/9 2/9 1/9
1 2/9 2/9 0
2 1/9 0 0
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
87
Y, es decir ( )
j
y q calculada a partir de ( )
j i
y , x p en la forma indicada, coincide con la funcin de
probabilidad de variable aleatoria unidimensional Y considerada en forma aislada.

Ejemplo:
Siguiendo con el ejemplo 1,

( ) ( ) ( ) ( ) ( ) ( )
28 0
05 0 06 0 08 0 09 0 3 5 2 5 1 5 0 5 5 5
.
. . . . , p , p , p , p X P p
=
+ + + = + + + = = =

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
26 0
06 0 05 0 04 0 02 0 01 0 1 5 1 4 1 3 1 2 1 1 1 0 1 1
.
. . . . . , p , p , p , p , p , p Y P q
=
+ + + + = + + + + + = = =

Observemos que se verifica la condicin de normalizacin para cada una de las marginales:
( )

=
= + + + + + =
5
0
1 28 0 24 0 21 0 16 0 08 0 03 0
i
x
i
. . . . . . x p
( )

=
= + + + =
3
0
1 24 0 25 0 26 0 25 0
j
y
j
. . . . y q

5.3 - Funciones de probabilidades condicionales

Consideremos nuevamente el ejemplo de las dos lneas I y II que producen cierto artculo a pequea
escala. Definimos la v.a. ( ) Y , X cuya funcin de probabilidad conjunta ( )
j i
y , x p est dada por la tabla
anterior que repetimos

X Y
0 1 2 3 4 5 q(y
j
)
0 0 0.01 0.03 0.05 0.07 0.09 0.25
1 0.01 0.02 0.04 0.05 0.06 0.08 0.26
2 0.01 0.03 0.05 0.05 0.05 0.06 0.25
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24
p(x
i
) 0.03 0.08 0.16 0.21 0.24 0.28 1

Supongamos que deseamos conocer la probabilidad de que la lnea I produzca tres artculos sabiendo
que la lnea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces
( )
( )
( )
( )
2 . 0
25 . 0
05 . 0
2
2 , 3
2
2 , 3
2 3 = = =
=
|

\
|
= =
= = =
q
p
Y P
Y X P
Y X P

En general definimos la funcin de probabilidad puntual de X condicional a Y como sigue:
( ) ( )
( )
( )
j
j i
j i j i
y q
y , x p
y Y x X P y x p = = = = , es decir como el cociente de la funcin de probabilidad
conjunta de ( ) Y , X y la funcin de probabilidad puntual marginal de Y.


Anlogamente, definimos la funcin de probabilidad puntual de Y condicional a X :
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
88
( ) ( )
( )
( )
i
j i
i j i j
x p
y , x p
x X y Y P x y q = = = = , es decir como el cociente de la funcin de probabilidad puntual
conjunta de ( ) Y , X y la funcin de probabilidad puntual marginal de X.



5.4 Variables aleatorias independientes

Ya se discuti el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos
trasladarlas en relacin a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como
las componentes de una variable aleatoria bidimensional ( ) Y , X .
De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que
toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos
ms formalmente:

Sea ( ) Y , X una variable aleatoria bidimensional discreta. Sea ( )
j i
y , x p su fdp conjunta y ( )
i
x p y ( )
j
y q
las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias
independientes si y slo si

( ) ( ) ( ) ( )
XY j i j i j i
R y , x y q x p y , x p =

Observacin: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorizacin
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( ) Y , X .
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorizacin para
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de
acuerdo con la definicin, que las variables X e Y son no independientes, es decir, que son dependientes.
Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la
factorizacin sealada.

Vimos que dos sucesos A y B son independientes si y slo si ( ) ( ) A P B A P = y ( ) ( ) B P A B P = (donde
por supuesto deba ser ( ) 0 A P y ( ) 0 B P ). En trminos de variables aleatorias, esta forma de ver la
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp
marginales, como demostramos en este

Teorema
Sea ( ) Y , X una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y marginales
son, respectivamente, ( )
j i
y , x p ; ( )
j i
y x p , ( )
i j
x y q y ( )
i
x p , ( )
j
y q .
Entonces, X e Y son variables aleatorias independientes si y slo si


1) ( ) ( ) ( )
XY j i i j i
R y , x x p y x p = , o
2) ( ) ( ) ( )
XY j i j i j
R y , x y q x y q = , que es equivalente a lo anterior



Parte 1 - Probabilidades Prof. Mara B. Pintarelli
89

Dem.)
Demostraremos solamente 1). La equivalencia entre1) y 2) la dejamos como ejercicio.
Para demostrar 1) verificaremos la doble equivalencia entre sta y la definicin de v.a. independientes.
)
Sean X e Y variables aleatorias independientes. Entonces ( )
XY j i
R y , x
( )
( )
( )
( ) ( )
( )
( )
i
j
j i
j
j i
j i
x p
y q
y q x p
y q
y , x p
y x p = = =
Aqu la primera igualdad es la definicin de fdp condicional y la segunda sale de la definicin de
independencia al suponer que X e Y son independientes.
)
Supongamos que se verifica 1). Entonces ( )
XY j i
R y , x
( ) ( )
( )
( )
( ) ( ) ( ) ( )
j i j i i
j
j i
i j i
y q x p y , x p x p
y q
y , x p
x p y x p = = = X e Y independientes
Aqu, la primera implicacin se debe a la definicin de fdp condicional y la tercera a la definicin de v.a.
independientes.

Ejemplo:
1- Supongamos que una mquina se usa para un trabajo especfico a la maana y para uno diferente en
la tarde. Representemos por X e Y el nmero de veces que la mquina falla en la maana y en la tarde
respectivamente. Supongamos que la tabla siguiente da la funcin de probabilidad conjunta ( )
j i
y , x p de
la variable aleatoria bidimensional discreta ( ) Y , X .

Y/X 0 1 2 q(y
j
)
0 0.1 0.2 0.2 0.5
1 0.04 0.08 0.08 0.2
2 0.06 0.12 0.12 0.3
P(x
i
) 0.2 0.4 0.4 1

Deseamos saber si las variables aleatorias X e Y son independientes o dependientes.
Para demostrar que son independientes debemos probar que se verifica ( )
XY j i
R y , x
( ) ( ) ( )
j i j i
y q x p y , x p = Verificamos directamente que

( ) ( ) ( ) 5 0 2 0 0 0 1 0 0 0 . . q p . , p = = =
( ) ( ) ( ) 2 0 2 0 1 0 04 0 1 0 . . q p . , p = = =
( ) ( ) ( ) 3 0 2 0 2 0 06 0 2 0 . . q p . , p = = =
( ) ( ) ( ) 5 0 4 0 0 1 2 0 0 1 . . q p . , p = = =
( ) ( ) ( ) 2 0 4 0 1 1 08 0 1 1 . . q p . , p = = =
( ) ( ) ( ) 3 0 4 0 2 1 12 0 2 1 . . q p . , p = = =
( ) ( ) ( ) 5 0 4 0 0 2 2 0 0 2 . . q p . , p = = =
( ) ( ) ( ) 2 0 4 0 1 2 08 0 1 2 . . q p . , p = = =
( ) ( ) ( ) 3 0 4 0 2 2 12 0 2 2 . . q p . , p = = =

Luego X e Y son independientes.

Parte 1 - Probabilidades Prof. Mara B. Pintarelli
90
Podramos haber usado las condiciones 1) ( ) ( ) ( )
XY j i i j i
R y , x x p y x p = , o su equivalente
2) ( ) ( ) ( )
XY j i j i j
R y , x y q x y q = . Veamos, como muestra para un solo valor, que se verifica
( )
( )
( )
( ) 2 4 0
2 0
08 0
1
1 2
1 2 p .
.
.
q
, p
p = = = = . Para demostrar la independencia por este camino habra que
demostrar que se cumple la condicin para el resto de los pares de valores. Se deja este clculo como
ejercicio optativo.


Observaciones
1- De la definicin de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la
fdp conjunta determina unvocamente las fdp marginales. Es decir, si ( ) Y , X es discreta del
conocimiento de la funcin de probabilidad conjunta ( )
j i
y , x p podemos determinar unvocamente las
funciones de probabilidad ( )
i
x p y ( )
j
y q . Sin embargo la inversa no se cumple en general. Es decir del
conocimiento de ( )
i
x p y ( )
j
y q no se puede, en general, reconstruir ( )
j i
y , x p a menos que X e Y sean
variables independientes en cuyo caso es ( ) ( ) ( )
j i j i
y q x p y , x p = .


2- El concepto de independencia entre dos variables aleatorias se puede generalizar a n variables
aleatorias
n
X X X ,..., ,
2 1



5.5 - Funcin de una variable aleatoria bidimensional

Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar
otra variable aleatoria que es funcin de aqulla. Por ejemplo, supongamos que las variables aleatorias X
e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces Y X Z 2 2 + = es una v.a. que
representa el permetro de la pieza, o la v.a. Y X W . = representa el rea de la pieza. Tanto Z como W
son variables aleatorias.

En general, sea S un espacio muestral asociado a un experimento probabilstico , sean R S : X e
R S : Y dos variables aleatorias que definen una variable aleatoria bidimensional ( ) Y , X cuyo
recorrido es
XY
R , y sea una funcin de dos variables reales R R : H
XY
que a cada elemento( ) y , x del
recorrido
XY
R le hace corresponder un nmero real ( ) y , x H z = , entonces la funcin compuesta
( ) R S Y X H Z = : , es una variable aleatoria, puesto que a cada elemento S s le hace corresponder
un nmero real ( ) ( ) | | s Y , s X H z = . Diremos que la variable aleatoria Z es funcin de la variable
aleatoria bidimensional (X,Y).

Algunas variables aleatorias que son funcin de variables aleatorias bidimensionales son Y X Z + = ,
Y . X Z = , Y / X Z = , ( ) Y , X mn Z = , ( ) Y , X mx Z = , etc.

Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias
n
X X X ,..., ,
2 1
, y ( )
n
x x x H z ,... ,
2 1
= es una funcin de n variables a valores reales.



Parte 1 - Probabilidades Prof. Mara B. Pintarelli
91
Ejemplos:
1- Sea ) , ( ~ p n B Z
Podemos escribir a Z como suma de variables aleatorias de la siguiente forma.
Recordar que Z cuenta el nmero de xitos en n repeticiones o ensayos del experimento
Si definimos


=
contrario caso
xito ocurre de repeticin sima la en si
X
i
0
1
n i ,..., 2 , 1 =
Notar que a cada
i
X se la puede considerar ) , 1 ( p B , y adems
n
X X X ,..., ,
2 1
son independientes
Podemos escribir
n
X X X Z + + + = ...
2 1


2- Sea Z v.a. binomial negativa con parmetros r y p, es decir ) , ( ~ p r BN Z
Si definimos
1
X : nmero de repeticiones del experimento requeridos hasta el 1 xito
2
X : nmero de repeticiones del experimento adicionales requeridos hasta el 2 xito
3
X : nmero de repeticiones del experimento adicionales requeridos hasta el 3 xito
Y en general
i
X : nmero de repeticiones del experimento adicionales despus del (i-1)simo xito requeridos hasta
el i-simo xito
Entonces cada variable tiene distribucin geomtrica con parmetro p y
r
X X X Z + + + = ...
2 1

Notar adems que
r
X X X ,..., ,
2 1
son independientes


Esperanza de una v.a. que es funcin de una v.a. bidimensional

Sea una variable aleatoria bidimensional ( ) Y , X cuya fdp conjunta es la funcin de probabilidad
conjunta ( )
j i
y , x p si es discreta o la funcin de densidad de probabilidad conjunta ( ) y , x f si es continua
y sea una funcin real de dos variables ( ) y , x H z = de manera que podemos definir una variable
aleatoria Z que es funcin de la variable aleatoria bidimensional ( ) Y , X de la forma ( ) Y , X H Z = . Si la
fdp de Z es ( )
i
z q , siendo Z discreta, entonces la esperanza matemtica de Z es, de acuerdo con la
definicin general,
( ) ( )

=
X i
R x
i i
z q . z Z E (Z discreta)
Nuevamente lo interesante es considerar la posibilidad de evaluar ( ) Z E sin tener que calcular
previamente la fdp de Z. El siguiente teorema nos muestra cmo hacerlo.

Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es
funcin de (X,Y).

Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y) cuyo
recorrido es
XY
R y su fdp conjunta es ( )
j i
y , x p , entonces:

( ) ( ) | | ( ) ( )
( )

= =
XY j i
R y , x
j i j i
y , x p y , x H Y , X H E Z E

Dem.) sin demostracin
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
92
Esperanza de una suma de variables aleatorias




Dem.) en el teorema anterior consideramos y x y x H + = ) , (
Si (X,Y) es discreta

( ) ( ) | | ( ) ( )
( )
= + = = =


) , ( ) ( , , ,
) , ( ,
j
R y x
i j i
R y x
j i j i
y x p y x y x p y x H Y X H E Z E
XY j i XY j i

Aplicando la propiedad distributiva y separando en dos sumas

( ) = + = + =


) , ( ) , ( ) , ( ) (
) , ( ) , ( ) , (
j
R y x
i j j i
R y x
i j
R y x
i j i
y x p y y x p x y x p y x Z E
XY j i XY j i XY j i


= + = + =
j i
j i j
i j
j i i j i
i j
j j i
i j
i
y x p y y x p x y x p y y x p x ) , ( ) , ( ) , ( ) , (

Pero ) ( ) , (

=
j
i j i
x p y x p y ) ( ) , (

=
i
j j i
y q y x p , por lo tanto
) ( ) ( ) ( ) ( Y E X E y q y x p x
j
j j i
i
i
+ = + =



Para el caso (X,Y) continua sigue siendo vlida esta propiedad.

Podemos generalizar la propiedad anterior a un nmero finito cualquiera de variables aleatorias:


(leeremos: la esperanza de la suma es la suma de las esperanzas)

Dem.) Se deduce por induccin completa sobre el nmero n de variables aleatorias.


Observacin: se deduce que la esperanza verifica la propiedad lineal:

( )

= =
= |

\
|
n
i
i i
n
i
i i
X E a X a E
1 1
.

Ejemplos:
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la
esperanza matemtica de una variable aleatoria X distribuida binomialmente.
Sea entonces una v.a. XB(n,p).
Ya vimos que podemos escribir
n
X X X X + + + = ...
2 1
donde cada
i
X se la puede considerar ) , 1 ( p B ,
y adems
n
X X X ,..., ,
2 1
son independientes
Sean X e Y dos variables aleatorias arbitrarias. Entonces ( ) ( ) ( ) Y E X E Y X E + = + .
Sean
n
X ,..., X , X
2 1
n variables aleatorias arbitrarias. Entonces:

( ) ( ) ( ) ( )
n n
X E ... X E X E X ... X X E + + + = + + +
2 1 2 1
o, en notacin ms concentrada,:

( )

= =
= |

\
|
n
i
i
n
i
X E X E
1 1
1

Parte 1 - Probabilidades Prof. Mara B. Pintarelli
93
Entonces
p X P X P X P X E
i i i i
= = = = + = = ) 1 ( ) 0 ( 0 ) 1 ( 1 ) ( para cualquier i
Por lo tanto
( ) ( ) ( ) ( ) np p p p X E X E X E X X X E X E
veces n
n n
= + + + = + + + = + + + =
4 43 4 42 1
... ... ... ) (
2 1 2 1

Observacin: muchas veces es conveniente descomponer una variable aleatoria como suma de otras ms
simples para facilitar los clculos

2- Esperanza de una v.a. binomial negativa
Cuando se trat la v.a. binomial negativa se dijo cul era su esperanza. Ahora damos una demostracin
Sea X v.a. binomial negativa con parmetros r y p, es decir ) , ( ~ p r BN X
Si definimos
1
X : nmero de repeticiones del experimento requeridos hasta el 1 xito
2
X : nmero de repeticiones del experimento adicionales requeridos hasta el 2 xito
3
X : nmero de repeticiones del experimento adicionales requeridos hasta el 3 xito
Y en general
i
X : nmero de repeticiones del experimento adicionales despus del (i-1)simo xito requeridos hasta
el i-simo xito
Entonces cada variable tiene distribucin geomtrica con parmetro p y
r
X X X X + + + = ...
2 1

Por lo tanto
( ) ( ) ( ) ( )
p
r
p
r
p p p
X E X E X E X X X E X E
veces r
r r
= = + + + = + + + = + + + =
1 1
...
1 1
... ... ) (
2 1 2 1
4 4 3 4 4 2 1


3- Esperanza de una v.a. hipergeomtrica
) ( entonces ) , ( ~ Si
N
nM
X E N M, n H X =
Para facilitar la demostracin supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar el nmero esperado de bolillas rojas extradas
Definimos las variables


=
contrario caso
extrada es roja bolilla sima i la si
X
i
0
1

Las variables
M
X X X ,... ,
2 1
no son independientes
Se puede escribir
M
X X X X + + + = ...
2 1
, adems

N
n
n
N
n
N
X P X E
i i
=
|
|

\
|
|
|

\
|

|
|

\
|
= = =
1
1
1
1
) 1 ( ) (
Por lo tanto

Parte 1 - Probabilidades Prof. Mara B. Pintarelli
94
( ) ( ) ( ) ( )
N
nM
N
n
M
N
n
N
n
N
n
X E X E X E X X X E X E
veces M
Mr M
= = + + + = + + + = + + + =
4 4 3 4 4 2 1
... ... ... ) (
2 1 2 1

Ejemplo
El espesor X de una cua de madera (en milmetros) tiene una funcin de densidad de probabilidad




a) Determine E(X)
b) Si Y denota el espesor de una cua en pulgadas (1mm = 0.0394 pulgadas), determine E(Y)
c) Si se seleccionan tres cuas de manera independiente y las apilamos una encima de otra, encuentre la me-
dia y la varianza del espesor total.

a) Verifique el lector que

5 ) 5 (
4
3
4
3
) (
6
4
2
=
|
|

\
|
=

dx x x X E

b) X Y 0394 . 0 = entonces 197 . 0 ) ( 0394 . 0 ) 0394 . 0 ( ) ( = = = X E X E Y E
c) Notar que si
i
X : espesor de cua i , i = 1, 2, 3 entonces
X X X X 3 2 1
+ + = es el espesor total
Por lo tanto 15 5 5 5 ) ( ) ( ) ( ) ( ) (
3 2
1
3 2
1
= + + = + + = + + =
X
E
X
E X E
X X
X E X E


En general la esperanza de un producto de variables aleatorias no es igual al producto de las
esperanzas

(leeremos: la esperanza del producto es el producto de las esperanzas).

Dem.) anloga a la demostracin de la propiedad anterior.

Para el caso (X,Y) continua sigue siendo vlida esta propiedad.

Ejemplo:
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un
circuito varan aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R
independientes. Supongamos que las correspondientes fdp son:

( )


=
valores dems
i i
i g
0
1 0 2
( )


=
valores dems
r
r
r h
0
3 0
9
2

Nos interesa considerar el voltaje r . i v = de manera que podemos definir la variable aleatoria R . I V = .
Hallar el valor esperado o esperanza matemtica del voltaje: ( ) V E .
Como I y R son independientes, usando la propiedad anterior

( ) ) ( ) ( R E I E V E =
Si ( ) Y , X es una variable aleatoria bidimensional tal que X e Y son variables aleatorias
independientes, entonces: ( ) ( ) ( ) Y E . X E Y . X E =
( )

=
lado otro en 0
6 4
4
5 3
4
3
) (
2
x
x
x f
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
95

3
2
3
2 ) 2 ( ) (
1
0
3 1
0
= = =

i
di i i I E 1
9
3
9
1
4 9
1
9
) (
4
3
0
4 3
0
2
= = =
|
|

\
|
=

r
dr
r
r R E

3
2
1
3
2
) ( = = V E


Varianza de una suma de variables aleatorias


.


Dem.) Escribimos la varianza en su forma alternativa

( ) | | ( ) ( ) | |
2 2
Y X E Y X E Y X V + + = + . Desarrollamos los cuadrados y aplicamos la propiedad lineal de
la esperanza:

( ) ( ) ( ) ( ) | |
( ) ( ) ( ) ( ) | | ( ) ( ) ( ) | | { }
2 2 2 2
2 2 2
2 2
2
Y E Y E X E X E Y E Y . X E X E
Y E X E Y Y . X . X E Y X V
+ + + + =
+ + + = +


Agrupando convenientemente:

( ) ( ) ( ) | | { } ( ) ( ) | | { } ( ) ( ) ( ) { }
( ) ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y V X V
Y E X E Y . X E Y E Y E X E X E Y X V
+ + =
+ + = +
2
2
2 2 2 2
, es decir

( ) ( ) ( )
XY
Y V X V Y X V 2 + + = +





Observaciones:
1- Teniendo presente la definicin de la desviacin estndar de una v.a. X: ( ) X V
X
= , vemos que a la
propiedad anterior la podemos escribir:

( )
XY Y X
Y X V 2
2 2
+ + = +

2- Anlogamente se prueba que ( )
XY Y X
Y X V 2
2 2
+ =

3- X e Y son independientes, entonces ( ) ( ) ( ) Y V X V Y X V Y X V + = = + ) (
Esto es porque si las variables aleatorias X e Y son independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = .
Por lo tanto la covarianza vale cero : ( ) ( ) ( ) 0 = = Y E . X E Y . X E
XY
.

( ) ( ) ( )
XY
Y V X V Y X V 2 + + = + con ( ) ( ) ( ) Y E . X E Y . X E
XY
=
( ) ( ) ( ) Y E . X E Y . X E
XY
= se la llama la covarianza de X e Y.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
96
4- Podemos generalizar, usando el principio de induccin completa, al caso de n variables aleatorias
independientes:
Si
n
X ,..., X , X
2 1
son n variables aleatorias independientes entonces:
( ) ( ) ( ) ( )
n n
X V ... X V X V X ... X X V + + + = + + +
2 1 2 1
o, en forma ms compacta, ( )

= =
= |

\
|
n
i
i
n
i
i
X V X V
1 1
.
5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las
esperanzas ( ) ( ) ( ) Y E X E Y X E + = + cualesquiera sean X e Y . En cambio la varianza de la suma de las
variables aleatorias X e Y es, en general, igual a la suma de las varianzas, ( ) ( ) ( ) Y V X V Y X V + = + , slo
si X e Y son variables independientes.


Ejemplos:
1- Podemos ejemplificar la aplicacin de las propiedades de la varianza, calculando nuevamente la
varianza de una v.a. X distribuida binomialmente con parmetros n y p.
Sea entonces una v.a. XB(n,p). Vimos que se puede escribir:
n
X X X X + + + = ...
2 1
, donde las n variables aleatorias son independientes entre s y tienen todas la
misma distribucin:
( ) p B X
i
, 1 n ,..., , i 2 1 =
Entonces, tratndose de n variables aleatorias independientes
( ) ( ) ( ) ( )
n
X V X V X V X V + + + = ...
2 1
todas la varianzas son iguales y podemos escribir la suma como n
veces una cualquiera de ellas:
( ) ( )
i
X nV X V = . Pero
( ) ( ) ( ) | |
2 2
i i i
X E X E X V = .
Ya vimos que ( ) ( ) 0 1 0 . 1 = + = p p X E
i

Adems es: ( ) ( ) p p p X E
i
= + = 1 0 . 1
2 2 2

Entonces: ( ) ( ) ( ) | | ( ) p p p p X E X E X V
i i i
= = = 1
2 2 2
.
Luego:
( ) ( ) ( ) p np X nV X V
i
= = 1
que es el resultado que habamos obtenido a partir de la definicin y llevando las sumas involucradas a
la forma del desarrollo de un binomio de Newton.

2- Varianza de una v.a. binomial negativa
Ya vimos que podemos escribir
r
X X X X + + + = ...
2 1
, donde cada variable
i
X tiene distribucin
geomtrica con parmetro p
Por lo tanto
( ) ( ) ( ) ( )
2
2 1
1
...
p
p
r X V X V X V X V
r

= + + + =



5.6 - Covarianza

Sean X e Y dos variables aleatorias. La covarianza de X e Y se define:



( ) | | ( ) | | { } ( ) ( ) ( ) Y E X E Y X E Y E Y X E X E Y X Cov . . . ) , ( = =
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
97

Notacin: la notacin usual para la covarianza de X e Y es
XY
o ) , ( Y X Cov

La ltima igualdad surge de desarrollar el producto y aplicar las propiedades de la esperanza:
( ) | | ( ) | | { } ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y E . X Y . X E Y E Y . X E X E + =

Teniendo presente que ( ) X E y ( ) Y E son constantes:
( ) | | ( ) | | { } ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) Y E . X E Y . X E Y E X E Y E X E Y E . X E Y . X E Y E Y . X E X E = + = .




Dem. )
Segn vimos, si X e Y son variables aleatorias independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = , de donde
se sigue la propiedad.

Propiedades de la covarianza

Las siguientes propiedades son tiles y su verificacin se deja como ejercicio
1- ) , ( ) , ( Y X bdCov dY c bX a Cov = + +
2- ) , ( ) , ( ) , ( Z Y Cov Z X Cov Z Y X Cov + = +
3-

= = = =
=
|
|

\
|
n
i
m
j
j i
m
j
j
n
i
i
Y X Cov Y X Cov
1 1 1 1
) , ( ,
4- ) ( ) , ( X V X X Cov =

Ejemplos:
1)Varianza de una v.a. hipergeomtrica
|

\
|

\
|
=
1
) ( entonces ) , ( ~ Si
N
n N
N
M N
N
M
n X V N M, n H X
Para facilitar la demostracin supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar la varianza del nmero de bolillas blancas extradas
Como antes definimos las variables


=
contrario caso
extrada es roja bolilla sima i la si
X
i
0
1

Las variables
M
X X X ,... ,
2 1
no son independientes
Se puede escribir
M
X X X X + + + = ...
2 1
, adems

N
n
n
N
n
N
X P X E
i i
=
|
|

\
|
|
|

\
|

|
|

\
|
= = =
1
1
1
1
) 1 ( ) ( y
( ) |

\
|
= |

\
|
= =
N
n
N
n
N
n
N
n
X E X E X V
i i i
1 ) ( ) ( ) (
2
2 2


Si X e Y son variables aleatorias independientes, entonces 0 ) , ( = Y X Cov .
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
98
Por lo tanto ) , ( 2 ) ( ) ... ( ) (
1 1
2 1 j
M
i M j i
i i M
X X Cov X V X X X V X V

= <
+ = + + + =
Por otro lado ) ( ) ( ) ( ) ; (
j i j i j i
Y E X E X X E X X Cov =

Y
) 1 (
) 1 (
) (

=
N N
n n
X X E
j i
, entonces
2
) 1 (
) 1 (
) ; ( |

\
|

=
N
n
N N
n n
X X Cov
j i


Aplicando algunos pasos algebraicos se llega a |

\
|
|

\
|

= |

\
|

=
N
n
N N
n
N
n
N N
n n
X X Cov
j i
1
1
1
) 1 (
) 1 (
) ; (
2

Reemplazando
(

\
|
|

\
|

|
|

\
|
+ |

\
|
= + =

= <
N
n
N
n
N
M
N
n
N
n
M X X Cov X V X V
j
M
i M j i
i i
1
1
1
2
2 1 ) , ( 2 ) ( ) (
1 1


Nuevamente, luego de algunos clculos algebraicos se llega a

|

\
|

\
|
=
1
) (
N
n N
N
M N
N
M
n X V

2) De una caja con frutas que contiene 3 naranjas, 2 manzanas y 3 pltanos se selecciona una muestra de
4 frutas.
Sean las variables aleatorias
X: n de naranjas extradas
Y: n de manzanas extradas
Notar que la f.d.p. conjunta de (X,Y) es
4 1 ; 2 , 1 , 0 ; 3 , 2 , 1 , 0
4
8
4
3 2 3
) , ( + = =
|
|

\
|
|
|

\
|

|
|

\
|
|
|

\
|
= = = y x y x
y x y x
y Y x X P
Es un ejemplo de v.a. hipergeomtrica bidimensional.
Tambin se podra haber presentado la f.d.p. conjunta en una tabla, donde tambin figuran las distri-
buciones marginales de X e Y.

a) Cuales son E(X) , V(X), E(Y) y V(Y)?


2
3
70
105

70
3
3
70
9
2
70
3
1
0
0 ) (
= =
= + + + = X E


1
70
15
2
70
40
1
70
15
0 ) ( = + + = Y E
Verifique el lector que
28
15
) ( = X V y
7
3
) ( = Y V


X/Y 0 1 2
0 0 2/70 3/70 5/70
1 3/70 18/70 9/70 30/70
2 9/70 18/70 3/70 30/70
3 3/70 2/70 0 5/70
15/70 40/70 15/70
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
99
b) Son X e Y independientes?
0 ) 0 , 0 ( = = = Y X P pero 0
70
15
70
5
) 0 ( ) 0 ( = = = Y P X P
Por lo tanto X e Y son dependientes, lo que implica que 0 ) , ( Y X Cov

c) Cul es la Cov(X,Y)?

) ( ) ( ) ( ) , ( Y E X E XY E Y X Cov =

70
90
0 2 3
70
2
1 3
70
3
0 3
70
3
2 2
70
18
1 2
70
9
0 2
70
9
2 1
70
18
1 1
70
3
0 1
70
3
2 0
70
2
1 0 0 0 0 ) (
= + + +
+ + + +
+ + + +
+ + + = XY E


Entonces
14
3
1
2
3
7
9
) ( ) ( ) ( ) , ( = = = Y E X E XY E Y X Cov

d) Z = X+Y simboliza el total de naranjas y manzanas extradas

Cul es la E(Z) y V(Z) ?

5 . 2 1
2
3
) ( ) ( ) ( ) ( = + = + = + = Y E X E Y X E Z E

28
15
14
3
2
7
3
18
15
) , ( 2 ) ( ) ( ) ( =
|
|

\
|
+ + = + + = Y X Cov Y V X V Z V

e) Supongamos que cada naranja cuesta 2$ y cada manzana cuesta 1.5$ entonces

Y X W 5 . 1 2 + = es el costo del total de frutas extradas. Hallar E(W) y V(W)

$ 5 . 4 ) ( 5 . 1 ) ( 2 ) 5 . 1 2 ( ) ( = + = + = Y E X E Y X E W E

28
51
) , ( 5 . 1 2 2 ) (
5 . 1
) (
2
) 5 . 1 2 ( ) (
2 2
= + + = + = Y X Cov Y V X V Y X V W V

5.7 - Coeficiente de correlacin lineal.

En realidad ms que la covarianza aqu nos interesa considerar una cantidad relacionada con
XY
y que
segn veremos nos dar informacin sobre el grado de asociacin que existe entre X e Y . Ms
concretamente nos contar si existe algn grado de relacin lineal entre X e Y . Esa cantidad es el
coeficiente de correlacin lineal.
En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si
repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones,
as podemos tener tambin una primera idea sobre la existencia de una relacin funcional,
especficamente una relacin lineal, entre X e Y si consideramos un diagrama de dispersin. Consiste en
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
100
dibujar pares de valores ( )
j i
y , x medidos de la variable aleatoria ( ) Y , X en un sistema de coordenadas.
En la figura mostramos diversas situaciones posibles.
















De la figura a se deducira que entre X e Y no hay ningn tipo de relacin funcional. La figura b sugiere
la posibilidad de que exista una relacin funcional que corresponde a una parbola. La figura c, por su
parte, sugiere una relacin lineal entre X e Y . Este ltimo es el comportamiento que nos interesa
caracterizar. Con ese fin definimos el coeficiente de correlacin lineal como sigue:

En consecuencia:

( ) | | ( ) | | { }
( ) ( )
( ) ( ) ( )
( ) ( ) Y V . X V
Y E . X E Y . X E
Y V . X V
Y E Y . X E X E

XY

=

= .

Daremos una serie de propiedades de
XY
que nos permitirn establecer ms concretamente su
significado.

Propiedad 1




Dem.) inmediata a partir del hecho que si X e Y son independientes entonces ) ( ) ( ) ( Y E X E XY E =

Observacin: La inversa no es necesariamente cierta. Puede ser que 0 =
XY
y sin embargo X e Y no
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( ) Y , X que da
lugar a un diagrama de dispersin como el que se muestra en la figura, veremos que correspondera a un
coeficiente de correlacin lineal 0 =
XY
y sin embargo la figura sugiere que entre X e Y existe la
relacin funcional 1
2 2
= +Y X , es decir X e Y son v.a. dependientes. En realidad, como veremos,
XY
es
0
0
a b c
x x
y y y
(x
i
y
i
)
x
Sea ( ) Y , X una variable aleatoria bidimensional. Definimos el coeficiente de correlacin lineal entre
X e Y como
Y X
XY
Y X Cov

) , (
=
Si X e Y son variables aleatorias independientes entonces 0 =
XY
.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
101
una medida de la existencia de una relacin lineal entre X e Y y una circunferencia se aleja mucho de
una lnea recta.




Propiedad 2 :


Dem.)
Si consideramos la v.a.
Y X
Y X

+ entonces
( )
XY
Y X Y X Y X
Y X Cov Y V X V Y X
V



+ = + + =
|
|

\
|
+ 1 2
) , ( 2 ) ( ) (
0
2 2


Implicando que
XY
1

Por otro lado: ( )
XY
Y X Y X Y X
Y X Cov Y V X V Y X
V



= + =
|
|

\
|
1 2
) , ( 2 ) ( ) (
0
2 2


Implicando que 1
XY


1 1
XY



Propiedad 3 :






Dem.) Si 1
2
=
XY
entonces 1 =
XY
o 1 =
XY

Si 1 =
XY
entonces de la demostracin anterior se deduce que

y
x
0
1 2 3 -1 -2
-1
1
1 1
XY

Si 1
2
=
XY
, entonces con probabilidad 1 es B X . A Y + = donde A y B son constantes.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
102
( ) 0 1 2 = + =
|
|

\
|
+
XY
Y X
Y X
V

, lo que implica que la v.a.
Y X
Y X
Z

+ = tiene varianza cero. Segn la
interpretacin de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersin con
respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1
Por lo tanto esto implica que B X . A Y + = con 0 < =
X
Y
A


Anlogamente 1 =
XY
implica que B X . A Y + = con 0 > =
X
Y
A



Propiedad 4 :






Dem.) se deja como ejercicio


Observacin: Claramente las propiedades anteriores establecen que el coeficiente de correlacin lineal
es una medida del grado de linealidad entre X e Y.

Ejemplo

En el ejemplo anterior
44721 . 0
5
5
7
3
28
15
14
3
) ( ) (
) , (
= =

= =
Y V X V
Y X Cov
XY























Si X e Y son dos variables aleatorias tales que B X . A Y + = , donde A y B son constantes,
entonces 1
2
=
XY
. Si 0 > A es 1 =
XY
y si 0 < A es 1 =
XY
.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
103
6- SUMA DE VARIABLES ALEATORIAS Y TEOREMA
CENTRAL DEL LMITE

6.1 Suma de variables aleatorias independientes

Cuando se estudiaron las variables aleatorias bidimensionales se habl de una funcin de variable
aleatoria bidimensional. En particular se nombr la suma de n variables aleatorias, pero no se dijo nada
sobre la distribucin de esa v.a. suma.
Es a menudo importante saber cul es la distribucin de una suma de variables aleatorias independientes.
Consideramos algunos ejemplos en el caso discreto

1- Suma de variables aleatorias independientes con distribucin Poisson

) ( ~ ntes independie Y y ; ) ( ~ ; ) ( ~
2 1 2 1
+ + P Y X X P Y P X
Dem.)
Consideramos el evento { } n Y X = + como unin de eventos excluyentes { } n k k n Y k X = = 0 ,
, entonces
( )
=

= = = = = = = = +

= =

! !
) ( ) ( ) , ( ) (
2
0
1
0 0
2 1
k n
e
k
e k n Y P k X P k n Y k X P n Y X P
k n n
k
k n
k
n
k




X e Y independientes

( ) ( )
( )
n k n
n
k
k
n
k
k n k
n
e
k n k
n
n
e
k n k
e
2 1
) (
2
0
1
) (
0
2 1 ) (
! ! !
!
! ! !
2 1 2 1
2 1




+ =

=
+

=
+
=

+



Binomio de Newton

O sea X+Y tiene distribucin Poisson con parmetro
2 1
+

2- Suma de variables aleatorias binomiales independientes

) , ( ~ ntes independie Y y ; ) , ( ~ ; ) , ( ~
2 1 2 1
p n n B Y X X p n B Y p n B X + +

Dem.)
Nuevamente consideramos el evento { } k Y X = + como unin de eventos excluyentes
{ }
1
0 , n i i k Y i X = = , entonces
=
|
|

\
|

|
|

\
|
= = = = = = = = +
+
= = =

i k n i k i n i
n
k
n
i
n
i
p p
i k
n
p p
i
n
i k Y P i X P i k Y i X P k Y X P
2 1
1 1 1
) 1 ( ) 1 ( ) ( ) ( ) , ( ) (
2
0
1
0 0

X e Y independientes
|
|

\
|

|
|

\
|
=

=
+
i k
n
i
n
p p
n
i
k n n k 2
0
1
1
2 1
) 1 (


En la expresin anterior si r j > entonces 0 =
|
|

\
|
j
r

Parte 1 - Probabilidades Prof. Mara B. Pintarelli
104
Por ltimo usamos la siguiente identidad combinatoria

=
|
|

\
| +
=
|
|

\
|

|
|

\
|
1
0
2 1 2 1
n
i
k
n n
i k
n
i
n

Y entonces

k n n k
p p
k
n n
k Y X P
+

|
|

\
| +
= = +
2 1
) 1 ( ) (
2 1

O sea X+Y tiene distribucin binomial con parmetros
2 1
n n + y p

Observacin: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias
independientes, usando el principio de induccin completa, es decir
1- Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) ( ~
i i
P X para todo
n i ,..., 2 , 1 = entonces ) ( ~
0 0

= =
n
i
i
n
i
i
P X
2- Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~ p n B X
i i
para todo
n i ,..., 2 , 1 = entonces ) , ( ~
0 0
p n B X
n
i
i
n
i
i
= =



Suma de variables aleatorias normales independientes

Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y)
respectivamente se puede probar (no lo demostraremos aqu) que la v.a. Y X Z + = tiene densidad dada
por


+
= dy y h y z g z f
Y X
) ( ) ( ) (
Usando esto se puede demostrar el siguiente importante resultado:


Por induccin completa se puede generalizar este resultado a n variables:

De lo anterior y del hecho que ( ) ) , ~ , ~
2 2 2
a b N(a b aX N X + + tenemos:








Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
i i i
N X para todo
n i ,..., 2 , 1 = entonces ) , ( ~
1
2
0 0

= = =
n
i
i
n
i
i
n
i
i
N X
Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
i i i
N X para todo
n i ,..., 2 , 1 = entonces ) , ( ~
1
2 2
0 0

= = =
n
i
i i
n
i
i i
n
i
i i
a a N X a donde
n
a a a ,..., ,
2 1
son nmeros reales
Si X e Y son variables aleatorias independientes donde ( ) , ~
2
1 1
N X y ( ) , ~
2
2 2
N Y entonces
( ) , ~
2
2
2
1 2 1
+ + + N Y X
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
105
Se dice que

=
n
i
i i
X a
0
es una combinacin lineal de variables aleatorias.

Ejemplos:
1- La envoltura de plstico para un disco magntico est formada por dos hojas. El espesor de cada
una tiene una distribucin normal con media 1.5 milmetros y desviacin estndar de 0.1 mil-
metros. Las hojas son independientes.
a) Determine la media y la desviacin estndar del espesor total de las dos hojas.
b) Cul es la probabilidad de que el espesor total sea mayor que 3.3 milmetros?

Solucin: Sean las variables aleatorias
X: espesor de la hoja 1 e Y: espesor de la hoja 2
Entonces ) 1 . 0 , 5 . 1 ~
2
N( X ; ) 1 . 0 , 5 . 1 ~
2
N( Y y X e Y independientes
a) Si definimos la v.a. Z: espesor total de las dos hojas , entonces Y X Z + =
Por lo tanto ) 1 . 0 1 . 0 , 5 . 1 5 . 1 ~
2 2
+ + N( Z es decir ) 02 . 0 , 3 ~ N( Z
En consecuencia 3 ) ( = Z E , 02 . 0 ) ( = = Z V
Z

b) Se pide calcular ) 3 . 3 ( > Z P
( ) 017 . 0 983 . 0 1 12132 . 2 1
02 . 0
3 3 . 3
1
02 . 0
3 3 . 3
02 . 0
3
) 3 . 3 ( = = =
|
|

\
|
=
|
|

\
|
>

= >
Z
P Z P

2-Tengo tres mensajes que atender en el edificio administrativo. Sea X
i
: el tiempo que toma el i-
simo mensaje (i = 1, 2 ,3), y sea X
4
: el tiempo total que utilizo para caminar hacia y desde el
edificio y entre cada mensaje. Suponga que las X
i
son independientes, normalmente distribui-
das, con las siguientes medias y desviaciones estndar:
3 , 12 , 2 , 8 , 1 , 5 , 4 min, 15
4 4 3 3 2 2 1 1
= = = = = = = =
Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que
dice regreso a las t a.m. A qu hora t debo escribir si deseo que la probabilidad de mi llegada
despus de t sea 0.01?

Solucin: Definimos la v.a. Z: tiempo transcurrido desde que salgo de mi oficina hasta que re-
greso, entonces
4 3 2 1
X X X X T + + + =
Por lo tanto |

\
|

= =
4
1
2
4
1
, ~
i
i
i
i
N T , y se pide hallar t tal que 01 . 0 ) ( = > t T P
50 12 8 5 15
4
1
= + + + =

= i
i
y 30 3 2 1 4
2 2 2
4
1
2 2
= + + + =

= i
i


Entonces 01 . 0
30
50
1 ) ( =
|
|

\
|
= >
t
t T P , es decir 99 . 0
30
50
=
|
|

\
|

t

Buscando en la tabla de la normal 7619 . 62 50 30 33 . 2 33 . 2
30
50
= + = =

t
t


3- El ancho del marco de una puerta tiene una distribucin normal con media 24 pulgadas y des-
viacin estndar de 1/8 de pulgada. El ancho de la puerta tiene una distribucin normal con me-
dia 23.875 de pulgadas y desviacin estndar de 1/16 de pulgadas. Suponer independencia.
a) Determine la distribucin, la media y la desviacin estndar de la diferencia entre el ancho
del marco y de la puerta.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
106
b) Cul es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma-
yor que de pulgada?.
c) Cul es la probabilidad de que la puerta no quepa en el marco?.

Solucin: Sean las variables aleatorias
X: ancho del marco de la puerta en pulgadas
Y: ancho de la puerta en pulgadas
Entonces ) 1/8) ( , 24 ~
2
N( X , ) 1/16) ( , 875 . 23 ~
2
N( Y , X e Y independientes
a) Se pide la distribucin de X-Y , ) ( Y X E , ) ( Y X V
Y X
=


125 . 0 875 . 23 24 ) ( ) ( ) ( = = = Y E X E Y X E

16
5

256
5
16
1
8
1
) ( ) ( ) (
2 2
= = |

\
|
+ |

\
|
= + =
Y X
Y V X V Y X V
Por lo tanto
|
|

\
|
|
|

\
|

2
16
5
, 125 . 0 ~ N Y X
b) Se pide la probabilidad ) 4 / 1 ( > Y X P
1867 . 0 8133 . 0 1 ) 8944 . 0 ( 1
5
5 2
1
16
5
125 . 0 25 . 0
1 ) 4 / 1 ( = = =
|
|

\
|
=
|
|
|
|

\
|

= > Y X P
c) Si la puerta no entra en el marco entonces se da el evento { } Y X < o equivalentemente
{ } 0 < Y X , por lo tanto
1867 . 0
5
5 2
1
5
5 2
16
5
125 . 0 0
) 0 ( =
|
|

\
|
=
|
|

\
|
=
|
|
|
|

\
|

= < Y X P

4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti-
vamente, de una pieza.
Supongamos adems que X e Y son independientes y que X ~ N(2 , 0.1
2
) , Y ~ N(5 , 0.2
2
).
Entonces Z = 2X + 2Y es una v.a. que representa el permetro de la pieza.
Calcular la probabilidad de que el permetro sea mayor que 14.5 cm.

Solucin: tenemos que ( )
2 2 2 2
2 . 0 2 1 . 0 2 , 5 2 2 2 ~ + + N Z , o sea ( ) 0.2 , 14 ~ N Z
La probabilidad pedida es ) 5 . 14 ( > Z P , entonces
( ) 119 . 0 8810 . 0 1 1180 . 1 1
2
5
1
2 . 0
14 5 . 14
1 ) 5 . 14 ( = = =
|
|

\
|
=
|
|

\
|
= > Z P

5- Si se aplican dos cargas aleatorias
2 1
y X X a una viga voladiza como se muestra en la figura si-
guiente, el momento de flexin en 0 debido a las cargas es
2 2 1 1
X a X a + .
a) Suponga que
2 1
y X X son v.a. independientes con medias 2
y 4 KLbs respectivamente, y desviaciones estndar 0.5 y
1.0 KLbs, respectivamente.

Parte 1 - Probabilidades Prof. Mara B. Pintarelli
107
Si 5
1
= a pies y 10
2
= a pies, cul es el momento de flexin esperado y cul es la desviacin
estndar del momento de flexin?
b) Si
2 1
y X X estn normalmente distribuidas, cul es la probabilidad de que el momento de
flexin supere 75 KLbs?

Solucin: Sea la v.a. Z: momento de flexin en 0, entonces
2 1
10 5 X X Z + =
Por lo tanto
a) 50 4 10 2 5 ) ( 10 ) ( 5 ) (
2 1
= + = + = X E X E Z E

4
65

4
65
1 10 25 . 0 25 1 10 5 . 0 5 ) (
2 2 2 2
= = + = + =
Z
Z V
b) Si
2 1
y X X estn normalmente distribuidas, entonces
|

\
|
4
65
, 50 ~ N Z
Por lo tanto
( ) 0 1 1 20 . 6 1
13
65 10
1
4
65
50 75
1 ) 75 ( = =
|
|

\
|
=
|
|
|
|

\
|

= > Z P


Promedio de variables aleatorias normales independientes











Dem.) Notar que
n
X
X
n
i
i
=
=
1
es un caso particular de combinacin lineal de variables aleatorias donde
n
a
i
1
= para todo n i ,..., 2 , 1 =
Adems en este caso =
i
y
2 2
=
i
para todo n i ,..., 2 , 1 =
Por lo tanto, X tiene distribucin normal con esperanza = = =

= =
n
i
n
i
i
n
n n n
1 1
1 1 1
y varianza
n
n
n n n
n
i
i
n
i
2
2
2
2
2
1
2
2
1
1 1 1
= |

\
|
= |

\
|
= |

\
|

= =

Es decir,
|
|

\
|
n
N X
2
, ~


Observacin: a X se lo llama promedio muestral o media muestral

Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
N X
i
para todo
n i ,..., 2 , 1 = entonces la v.a.
n
X
X
n
i
i
=
=
1
tiene distribucin normal con
media y varianza
n
2


Parte 1 - Probabilidades Prof. Mara B. Pintarelli
108
Ejemplos:
1) El dimetro interno de un anillo de pistn seleccionado al azar es una v.a. con distribucin normal con
media 12 cm y desviacin estndar de 0.04 cm.
a) Si X es el dimetro promedio en una muestra de 16 = n anillos, calcule ) 01 . 12 99 . 11 ( X P
b) Qu tan probable es que el dimetro promedio exceda de 12.01 cuando 25 = n ?

Solucin:
a) Sean las variables aleatorias :
i
X dimetro del anillo i 16 ,..., 2 , 1 = i
Entonces ( )
04 . 0
, 12 ~
2
N
Xi
para cada i.
Por lo tanto
|
|

\
|
16
04 . 0
, 12 ~
2
N X . Entonces

( ) ( )
6826 . 0 1 8413 . 0 2
1 ) 1 ( 2 1 1
16
04 . 0
2
12 99 . 11
16
04 . 0
2
12 01 . 12

)
16
04 . 0
2
12 01 . 12
16
04 . 0
2
12
16
04 . 0
2
12 99 . 11
( ) 01 . 12 99 . 11 (
= =
= = =
|
|
|
|
|
|

\
|

|
|
|
|
|
|

\
|

=
=

=

X
P X P





b) En este caso
|
|

\
|
25
04 . 0
, 12 ~
2
N X , entonces

1056 . 0 8944 . 0 1 ) 25 . 1 ( 1
25
04 . 0
12 01 . 12
1 ) 01 . 12 (
2
= = =
|
|
|
|
|

\
|

= > X P



2)Una mquina embotelladora puede regularse de tal manera que llene un promedio de onzas por
botella. Se ha observado que la cantidad de contenido que suministra la mquina presenta una
distribucin normal con 1 = onza. De la produccin de la mquina un cierto da, se obtiene una
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se
miden las onzas del contenido de cada una.
a) Determinar la probabilidad de que la media muestral se encuentre a lo ms a 0.3 onzas de la
media real para tales posiciones de control
b) Cuntas observaciones deben incluirse en la muestra si se desea que la media muestral est a
lo ms a 0.3 onzas de con una probabilidad de 0.95?

Solucin:
a) Sean las variables aleatorias :
i
X contenido en onzas de la botella i 9 ,..., 2 , 1 = i
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
109
Entonces ( ) 1 , ~ N X
i
para cada i.
Por lo tanto |

\
|
9
1
, ~ N X . Se desea calcular

6318 . 0 1 ) 9 . 0 ( 2
) 9 . 0 ( ) 9 . 0 ( 9 . 0 9 . 0
3 . 0 3 . 0
3 . 0 3 . 0
) 3 . 0 3 . 0 ( ) 3 . 0 (
= =
= =
|
|
|

\
|

=
|
|
|

\
|

=
=
|
|
|

\
|

= =
n
X
P
n n
X
n
P
n n
X
n
P X P X P




b) Ahora se pretende que
95 . 0 ) 3 . 0 3 . 0 ( ) 3 . 0 ( = = X P X P
Entonces
95 . 0 3 . 0
1
3 . 0
3 . 0 3 . 0
) 3 . 0 ( =
|
|
|

\
|

=
|
|
|

\
|

= n
n
X
n P
n n
X
n
P X P



Mediante la tabla de la acumulada de la normal estndar se tiene que

( ) ( ) ( ) 96 . 1 3 . 0 0.975 3 . 0 95 . 0 1 3 . 0 2 3 . 0
1
3 . 0 = = = =
|
|
|

\
|

n n n n
n
X
n P



O sea 68 . 42
3 . 0
96 . 1
2
= |

\
|
n
Si tomamos 43 = n , entonces ) 3 . 0 ( X P ser un poco mayor que 0.95



6.2 - Teorema central del lmite

Acabamos de ver que la suma de un nmero finito n de variables aleatorias independientes que estn
normalmente distribuidas es una variable aleatoria tambin normalmente distribuida. Esta propiedad
reproductiva no es exclusiva de la distribucin normal. En efecto, por ejemplo, ya vimos que existen
variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial.
En realidad, la propiedad que le da a la distribucin normal el lugar privilegiado que ocupa entre todas
las distribuciones es el hecho de que la suma de un nmero muy grande, rigurosamente un nmero
infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias (no
necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribucin
normal. Este es, esencialmente, el contenido del
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
110

Dem.) sin demostracin

Observaciones:
1- Notar que ( ) ( ) n X E X E S E
n
i
i
n
i
i n
= = |

\
|
=

= = 1 1
y ( ) ( )
2
1 1
n X V X V S V
n
i
i
n
i
i n
= = |

\
|
=

= =

Por lo tanto
2


n
n S
Z
n
n

= es la v.a.
n
S estandarizada
2- Notar que
|
|
|

\
|

=
|
|
|
|
|

\
|

=
|
|

\
|

n
X
P z
n
n
n
n S
P z
n
n S
P
n
n


2 2
, por lo tanto tambin se puede enunciar
el Teorema central del lmite de la siguiente forma

Donde
n
X
Z
n


=
es el promedio muestral estandarizado
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeos , en particular donde la
poblacin es continua y simtrica, en otras situaciones se requieren valores de n mas grandes,
dependiendo de la forma de la distribucin de las
i
X . En muchos casos de inters prctico, si 30 n , la
aproximacin normal ser satisfactoria sin importar cmo sea la forma de la distribucin de las
i
X . Si
30 < n , el T.C.L. funciona si la distribucin de las
i
X no est muy alejada de una distribucin normal

4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a.
exponencial con parmetro 5 . 0 = , y se calcula el promedio de esos n valores. Esto se repite 1000
veces, por lo tanto tenemos 1000 valores de la v.a. X .
Teorema central del lmite (T.C.L.):
Sean
n
X ,..., X , X
2 1
variables aleatorias independientes con ( ) =
i
X E y ( )
2
=
i
X V para todo
n ,..., , i 2 1 = , es decir independientes idnticamente distribuidas
Sea la v.a.

=
=
n
i
i n
X S
1
y sea
2


n
n S
Z
n
n

= .
Entonces ( ) ( ) z z Z P lim
n
n
=

, esto es


=
|
|

\
|

z
x
n
n
dx e z
n
n S
P
2
2
2
2
1
lim



Sean
n
X ,..., X , X
2 1
variables aleatorias independientes con ( ) =
i
X E y ( )
2
=
i
X V para todo
n ,..., , i 2 1 = , es decir independientes idnticamente distribuidas
Sea la v.a. promedio muestral

=
=
n
i
i
X
n
X
1
1
y sea
n
X
Z
n


=
.
Entonces ( ) ( ) z z Z P lim
n
n
=

, esto es


=
|
|

\
|

z
x
n
dx e z
n
X
P
2
2
2
1
lim



Parte 1 - Probabilidades Prof. Mara B. Pintarelli
111
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo ) , ( b a donde caen
todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de
cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas
frecuencias obtenindose los grficos siguientes que se pueden considerar una aproximacin a la
verdadera distribucin de X .
Se observa que a medida que aumenta el valor de n los grficos se van haciendo ms simtricos,
parecindose a la grfica de una distribucin normal.






Ejemplos:
1- Supngase que 30 instrumentos electrnicos D
1
, D
2
, ......,D
30
, se usan de la manera siguiente: tan
pronto como D
1
falla empieza a actuar D
2
. Cuando D
2
falla empieza a actuar D
3
, etc. Supngase que el
tiempo de falla de D
i
es una v.a. distribuida exponencialmente con parmetro = 0.1 por hora. Sea T el
tiempo total de operacin de los 30 instrumentos. Cul es la probabilidad de que T exceda 350 horas?

Solucin:
Si
i
X : tiempo de falla del instrumento
i
D 30 ,..., 2 , 1 = i
Entonces ) 1 . 0 ( ~ Exp X
i
para 30 ,..., 2 , 1 = i
El tiempo total de operacin de los 30 instrumentos es

=
=
30
1 i
i
X T , donde
300
1 . 0
1
30 ) ( 30 ) (
30
1
= = = |

\
|
=

=
i
i
i
X E X E T E
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
50
100
150

12 34 567 891011121314151617181920212223242526272829303132
20
40
60
80

1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829
10
20
30
40
50


1 2 3 4 5 6 7 8 9 10111213141516171819202122
10
20
30
40


n=2
n = 5
n = 15
n = 30
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
112

3000
1 . 0
1
30 ) ( 30 ) (
2
30
1
= = = |

\
|
=

=
i
i
i
X V X V T V
Entonces por T.C.L. N(0,1) ~
3000
300 T
aproximadamente pues 30 = n
La probabilidad pedida es
( ) 18141 . 0 81859 . 0 1 9128 . 0 1
3000
300 350
1
3000
300 350
3000
300
) 350 ( = = =
|
|

\
|

|
|

\
|
>

= >
T
P T P
T.C.L.

2- Suponga que el consumo de caloras por da de una determinada persona es una v.a. con media
3000 caloras y desviacin estndar de 230 caloras. Cul es la probabilidad de que el promedio de
consumo de caloras diario de dicha persona en el siguiente ao (365 das) sea entre 2959 y 3050?

Solucin:
Definimos las variables aleatorias
i
X : cantidad de caloras que una persona consume en el da i 365 ,..., 2 , 1 = i
Se sabe que 3000 ) ( =
i
X E y
2
230 ) ( =
i
X V
Si

=
=
365
1
365
1
i
i
X X entonces 3000 ) ( = X E y
365
230
) (
2 2
= =
n
X V


La probabilidad pedida es
( )
( ) ( ) 1 0 1 40 . 3 15 . 4
365
230
3000 2959
365
230
3000 3050
365
230
3000 3050
365
230
3000
365
230
3000 2959
3050 2959
= =
|
|
|

\
|


|
|
|

\
|

|
|
|

\
|

=
X
P X P
T.C.L.


Aplicaciones del Teorema central del lmite

Aproximacin normal a la distribucin binomial
El Teorema central del lmite se puede utilizar para aproximar las probabilidades de algunas variables
aleatorias discretas cuando es difcil calcular las probabilidades exactas para valores grandes de los
parmetros.
Supongamos que X tiene una distribucin binomial con parmetros n y p. Para calcular ) ( k X P
debemos hacer la suma

=
= =
k
i
i X P k X P
0
) ( ) ( o recurrir a las tablas de la F.d.a. , pero para valores de
n grandes no existen tablas, por lo tanto habra que hacer el clculo en forma directa y muchas veces es
laborioso.
Como una opcin podemos considerar a X como suma de variables aleatorias ms simples,
especficamente, si definimos


=
contrario caso
xito ocurre de repeticin sima la en si
X
i
0
1
n i ,..., 2 , 1 =
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
113
entonces cada
i
X se la puede considerar ) , 1 ( p B , y adems
n
X X X ,..., ,
2 1
son independientes
Podemos escribir

=
= + + + =
n
i
i n
X X X X X
1
2 1
... y si n es grande entonces X tendr aproximadamente
una distribucin normal con parmetros np y ) 1 ( p np , es decir
( )
( ) 1 , 0
1 .
.
2
N
p p n
p n X
n
n X
Z
n


si n es lo suficientemente grande

Observaciones:
1- La aproximacin normal a la distribucin binomial funciona bien aun cuando n no sea muy grande si
p no est demasiado cerca de cero o de uno. En particular la aproximacin normal a la binomial es buena
si n es grande , 5 > np y 5 ) 1 ( > p n , pero es ms efectivo aplicar esta aproximacin cuando 10 > np
y 10 ) 1 ( > p n

2- Correccin por continuidad.
Acabamos de ver que si XB(n,p) entonces, para n suficientemente grande, podemos considerar que
aproximadamente es X ( ) | | p p . n , p . n N 1 . El problema que surge de inmediato si deseo calcular, por
ejemplo, la probabilidad de que k X = (con k alguno de los valores posibles 0,1,2,,n) es que la
binomial es una distribucin discreta y tiene sentido calcular probabilidades como ( ) k X P = mientras
que la normal es una distribucin continua y, en consecuencia, ( ) 0 = = k X P puesto que para una
variable aleatoria continua la probabilidad de que sta tome un valor aislado es cero. Esto se resuelve si
se considera ( ) |

\
|
+ =
2
1
2
1
k X k P k X P
Tambin se puede usar esta correccin para mejorar la aproximacin en otros casos, especficamente en
lugar de ) ( k X P calculamos
|

\
|
+
2
1
) ( k X P k X P
Y en lugar de |

\
|

2
1
) ( k X P k X P
En los grficos siguientes se muestra para diferentes valores de n y p cmo aproxima la distribucin
)) 1 ( , ( p np np N a la distribucin ) , ( p n B




5 10 15 20 25
0.025
0.05
0.075
0.1
0.125
0.15
0.175
2 4 6 8 10 12 14
0.05
0.1
0.15
0.2



n = 25
p = 0.7
n = 15
p = 0.5
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
114
5 10 15 20
0.05
0.1
0.15
0.2
0.25
0.3
0.35
50 60 70 80 90 100
0.02
0.04
0.06
0.08





20 40 60 80 100 120 140
0.02
0.04
0.06
0.08
0.1
2 4 6 8 10
0.1
0.2
0.3
0.4




Ejemplos:
1- Sea X B(25,0.4). Hallar las probabilidades exactas de que 8 X y 8 = X y comparar estos
resultados con los valores correspondientes encontrados por la aproximacin normal.

Solucin:
De la tabla de la F.d.a. de la binomial encontramos 274 . 0 ) 8 ( = X P
Y 120 . 0 154 . 0 274 . 0 ) 7 ( ) 8 ( ) 8 ( = = = = X P X P X P
Ahora usamos la aproximacin normal
( ) 2709 . 0 61 . 0
6 . 0 4 . 0 25
10 5 . 8
) 1 (
) 5 . 8 ( ) 8 ( =
|
|

\
|

=
p np
np X
P X P X P
correccin por continuidad

Observar que el valor aproximado est muy cercano al valor exacto para 274 . 0 ) 8 ( = X P

( )
1170 . 0 1593 . 0 2709 . 0
61 . 0
6
10
02 . 1
6
10 5 . 8
6
10
6
10 5 . 7
5 . 8 5 . 7 ) 8 (
= =
=
|
|

\
|

=
|
|

\
|

= =
X
P
X
P X P X P


Nuevamente este valor aproximado est muy cerca del valor real de 120 . 0 ) 8 ( = = X P

2- Suponga que el 10% de todos los ejes de acero producidos por cierto proceso estn fuera de
especificaciones, pero se pueden volver a trabajar (en lugar de tener que enviarlos a la chatarra).
n =15
p = 0.9
n = 100
p = 0.7
n = 150
p = 0.1
n = 10
p = 0.1
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
115
Considere una muestra aleatoria de 200 ejes y denote por X el nmero entre ellos que estn fuera de
especificaciones y se puedan volver a trabajar. Cul es la probabilidad (aproximada) de que X sea
a) a lo sumo 30?
b) menos de 30?
c) entre 15 y 25 (inclusive)?

Solucin:
Sea la v.a. X: nmero de ejes fuera de especificaciones
Entonces ) 1 . 0 , 200 ( ~ B X , adems 5 20 1 . 0 200 > = = np y 5 180 ) 1 . 0 1 ( 200 ) 1 ( > = = p n
Por lo tanto podemos aplicar la aproximacin normal a la binomial
a) la probabilidad pedida es ) 30 ( X P
( ) 993244 . 0 474 . 2
18
20 5 . 30
18
20 5 . 30
) 1 (
) 5 . 30 ( ) 30 ( = =
|
|

\
|

|
|

\
|

=
p np
np X
P X P X P
b) La probabilidad pedida es ) 30 ( < X P
Al ser X una v.a. discreta con distribucin binomial ) 29 ( ) 30 ( = < X P X P
( ) 98745 . 0 2391 . 2
18
20 5 . 29
) 5 . 29 ( ) 29 ( = =
|
|

\
|
X P X P
c)

( ) ( )
( ) ( ) ( ) 80294 . 0 1 90147 . 0 2 1 2963 . 1 2 2963 . 1 2963 . 1
18
20 5 . 14
18
20 5 . 25
5 . 25 5 . 14 25 15
= = = =
=
|
|

\
|

|
|

\
|
X P X P


3- El gerente de un supermercado desea recabar informacin sobre la proporcin de clientes a los que no
les agrada una nueva poltica respecto de la aceptacin de cheques. Cuntos clientes tendra que incluir
en una muestra si desea que la fraccin de la muestra se desve a lo mas en 0.15 de la verdadera
fraccin, con probabilidad de 0.98?.

Solucin:
Sea X: nmero de clientes a los que no les agrada la nueva poltica de aceptacin de cheques
Entonces ) , ( ~ p n B X donde p es desconocido y es la verdadera proporcin de clientes a los que no
les agrada la nueva poltica de aceptacin de cheques. El gerente tomar una muestra de n clientes para
estimar p con
n
X
X = ya que
n
X
X = es la proporcin de clientes a los que no les agrada la nueva
poltica de aceptacin de cheques en la muestra de n clientes. Si no se toman a todos los clientes,
entonces
n
X
X = no ser igual a p.
La pregunta es cul debe ser n para que
n
X
X = se aleje del verdadero p en menos de 0.15 con
probabilidad 0.98 por lo menos, o sea para que ( ) 98 . 0 15 . 0 p X P
Entonces planteamos
( ) ( )
|
|

\
|

= =
) 1 (
15 . 0
) 1 ( ) 1 (
15 . 0
15 . 0 15 . 0 15 . 0
p np
n
p np
np X
p np
n
P p X P p X P
T.C.L.
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
116
98 . 0 1
) 1 (
15 . 0
2
) 1 (
15 . 0
) 1 (
15 . 0

|
|

\
|

=
|
|

\
|


|
|

\
|


p np
n
p np
n
p np
n


Por lo tanto 99 . 0
2
1 98 . 0
) 1 (
15 . 0
=
+

|
|

\
|

p np
n


Adems n
n
p p
n
p np
n
3 . 0
) 5 . 0 1 ( 5 . 0
15 . 0
) 1 (
15 . 0
) 1 (
15 . 0
=



Entonces debe cumplirse que 33 . 2 3 . 0 n o sea 3211 . 60
3 . 0
33 . 2
2
= |

\
|
n

O sea se debe tomar una muestra de al menos 61 clientes


Aproximacin normal a la distribucin Poisson

Se puede probar aplicando Teorema central del lmite que


Es decir para suficientemente grande ) 1 , 0 ( N
X


En la prctica si 30 la aproximacin es buena.

Observacin: la demostracin es sencilla si es igual a un nmero natural n pues, si consideramos las
variables aleatorias ) 1 ( ~ P X
i
con n i ,..., 2 , 1 = independientes, entonces ya sabemos que
|

\
|

= =
n
i
n
i
i
P X
1 1
1 ~ , es decir ) ( ~
1
n P X
n
i
i
=

Pero adems por T.C.L. si n es grande

=
n
i
i
X
1
tiene aproximadamente distribucin normal con
parmetros n n n = = 1 y n n n = = 1
2

O sea la distribucin de

=
n
i
i
X
1
que es exactamente Poisson con parmetro n, se puede aproximar con
una ) , ( n n N , por lo tanto ) 1 , 0 ( N
n
n X

aproximadamente para valores de n suficientemente grandes


En los grficos siguientes se muestra para diferentes valores de cmo aproxima la distribucin
) , ( N a la distribucin ) ( P

Si ) ( ~ P X entonces para suficientemente grande

X
tiene aproximadamente distribucin
) 1 , 0 ( N
Parte 1 - Probabilidades Prof. Mara B. Pintarelli
117
20 40 60 80 100
0.01
0.02
0.03
0.04
0.05
5 10 15 20 25 30
0.05
0.1
0.15
0.2


Ejemplo:
El nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil tiene una
distribucin de Poisson con parmetro = 50. Cul es la probabilidad aproximada de que:
a) entre 35 y 70 infracciones se expidan en un da en particular?
b) el nmero total de infracciones expedidas durante una semana de 5 das sea entre 225 y 275?

Solucin:
Sea X: nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil
Entonces ) ( ~ P X donde 50 =
Como 50 = entonces ) 1 , 0 (
50
50
N
X

(aproximadamente)
a) la probabilidad pedida es

( ) ( ) ( )
9805 . 0 017 . 0 997599 . 0
12132 . 2 8284 . 2
50
50 35
50
50 70
70 35
= =
= =
|
|

\
|

|
|

\
|
X P

b) Sea Y: nmero total de infracciones expedidas durante una semana de 5 das
Entonces ) ( ~ P Y donde 250 5 50 = =
La probabilidad pedida es

( ) ( ) ( )
( ) 8859 . 0 1 94295 . 0 2 1 5811 . 1 2
5811 . 1 5811 . 1
250
250 225
250
250 275
275 225
= = =
= =
|
|

\
|

|
|

\
|
Y P


50 =
3 =

Das könnte Ihnen auch gefallen