Sie sind auf Seite 1von 160

Análisis de Datos I

DISTRIBUCIONES DE
PROBABILIDAD

2014 – 10
Texto sugerido

Estadística
Matemática con
aplicaciones.
WACKERLY,
MENDENHALL y
SCHEAFFER.
Editorial THOMSON.
Contenido
Distribuciones de Probabilidad.
• Variables aleatorias discretas y sus distribuciones de probabilidad,
distribución de probabilidad acumulada.
• Valor esperado y varianza de una variable aleatoria discreta, propiedades.
• Distribuciones de probabilidad discreta especiales (Binomial,
Hipergeométrica, Poisson, Binomial Negativa, Geométrica, Uniforme
Discreta)
• Distribuciones de probabilidad continua y sus distribuciones de probabilidad.
• Valor esperado y varianza de una variable aleatoria continua, función de
distribución.
• Distribuciones de probabilidad continua especiales (Normal, Exponencial,
Uniforme continua)
• Aproximaciones entre las distribuciones de probabilidad.
• Relación entre las distribuciones de Poisson y Exponencial.
Introducción
• Se pretende tomar los conceptos aprendidos (probabilidad,
condicionales, independencia, etc.) y aplicarlos a variables
aleatorias, en vez de eventos.
• Las variables aleatorias servirán para representar de manera
probabilística fenómenos relacionados con actividades
profesionales del ingeniero.
• Ejemplo: cantidad de Km. que recorre un vehículo hasta que se
daña, duración de la reparación de una máquina, etc.
• Revisaremos variables aleatorias conocidas, tanto discretas como
continuas.
• Conoceremos sus parámetros y varias medidas para éstas.
• Importancia de las variables aleatorias: la mayoría de los
fenómenos son del tipo probabilístico. Al conocer más información
sobre ellos podemos tomar decisiones más certeras y hacer, por
ejemplo, mejores diseños.
CONCEPTO DE VARIABLE
ALEATORIA
• Hasta el momento, el espacio muestral sólo es una
descripción detallada de cada posible resultado de
un experimento.
• La estadística realiza inferencias acerca de las
poblaciones y sus características.
• Por ejemplo, el espacio muestral cuando se prueban
tres componentes electrónicos, se escribe como:
S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD}
• Donde N denota no defectuoso y D defectuoso.
CONCEPTO DE VARIABLE ALEATORIA
• Evidentemente, nos interesa el número de no
conformes que se presenten.
• A cada punto en el espacio muestral se le asignará
un valor numérico de 0, 1, 2, ó 3.
• Estos valores son, por supuesto, cantidades
aleatorias determinadas por el resultado del
experimento.
• Se pueden ver como valores que toma la variable
aleatoria X.
Una variable aleatoria es una función que asocia
un número real a cada elemento del espacio
muestral de un experimento aleatorio.
CONCEPTO DE VARIABLE ALEATORIA
• Utilizamos una letra mayúscula, digamos X, para
denotar una variable aleatoria; y su correspondiente
letra minúscula, x en este caso, para uno de sus
valores.
• En el ejemplo de la prueba de componentes
electrónicos, la variable aleatoria X toma el valor de
x = 2 para todos los elementos en el subconjunto
E = {DDN, DND, NDD}
del espacio muestral S. Esto es, cada valor posible
de X representa un evento que es un subconjunto
del espacio muestral para el experimento dado.
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo
• Se sacan dos bolas de manera sucesiva sin
reemplazo, de una urna que contiene 4 bolas rojas
y 3 negras.
• Los posibles resultados y los valores y de la
variable aleatoria Y, donde Y es el número de
bolas rojas, son: Espacio
y
Muestral
RR 2
RN 1
NR 1
NN 0
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo
• El empleado de un almacén regresa tres cascos de seguridad al
azar a tres trabajadores de un taller siderúrgico que ya los
habían probado. Si Smith, Jones y Brown, en ese orden, reciben
uno de los tres cascos, liste los puntos muéstrales para los
posibles órdenes de regreso de los cascos, y encuentre m de la
variable aleatoria M que representa el número de asociaciones
correctas.
• Solución: Si S, J y B representan, respectivamente, los cascos
de Smith, Jones y Brown, se tiene:
Espacio
m
Muestral
SJB 3
SBJ 1
BJS 1
BSJ 0
JSB 1
JBS 0
CONCEPTO DE VARIABLE ALEATORIA
• En cada uno de los ejemplos anteriores, el espacio
muestral contiene un número finito de elementos.
• Cuando se lanza un dado hasta que salga un 5,
obtenemos un espacio muestral con una secuencia
de elementos interminables,
S = {F, NF, NNF, NNNF, NNNNF,…},
donde F y N representan, respectivamente, la
ocurrencia y la no ocurrencia de un 5.
• Sin embargo, incluso en este experimento el número
de elementos puede ser igual a todos los números
enteros, de manera que hay un primer elemento, un
segundo, un tercero y así sucesivamente, y en este
sentido se pueden contar.
CONCEPTO DE VARIABLE ALEATORIA
• Hay casos en los que la variable aleatoria es
categórica por naturaleza y se utilizan las llamadas
variables ficticias o indicadoras.
• Un buen ejemplo de ello es el caso en que la variable
aleatoria es binaria por naturaleza, como se indica a
continuación:
Ejemplo
• Considere la condición en que los componentes
llegan de la línea de ensamble y se clasifican como
no conformes y conformes. Defina la variable
aleatoria X mediante
 1, |||| si _ el _ componente _ es _ no _ conforme
X 
 0, |||| si _ el _ componente _ es _ conforme ||||||||||
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo
• Los estadísticos utilizan planes de muestreo ya
sea para aceptar o para rechazar lotes de
materiales. Suponga que uno de los planes de
muestreo implica el muestreo independiente de 10
artículos de un lote de 100 de ellos, donde hay 12
no conformes.
• Sea X la variable aleatoria definida como el
número de artículos que están no conformes en la
muestra de 10. En este caso, la variable aleatoria
toma los valores de 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo
• Suponga que un plan de muestreo implica el muestro
de artículos hasta cuando se encuentre uno no
conforme.
• La evaluación del proceso dependerá de cuantos
artículos consecutivos se observan.
• En este aspecto, sea X una variable aleatoria que se
define como el número de artículos observados hasta
cuando salga uno no conforme.
• Se asigna N a conforme y D a no conforme; los
espacios muéstrales son S = (D) dado que X = 1
S = (ND) dado que X = 2, S = (NND) dado que X = 3,
S = (NNND) dado que X = 4, y así sucesivamente.
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo
• El interés se centra en la proporción de personas
que responden a cierta encuesta por correo. Sea X
tal proporción. X es una variable aleatoria que
toma todos los valores de x para los cuales
0 <= x <= 1.
Ejemplo
• Sea X la variable aleatoria definida como el tiempo
de espera, en horas, entre conductores sucesivos
que exceden los límites de velocidad detectados
por una unidad de radar. La variable aleatoria X
toma los valores de x tales que x >= 0.
CONCEPTO DE VARIABLE ALEATORIA
Si un espacio muestral contiene un número
finito de posibilidades, o una serie
interminable con tantos elementos como
números enteros existen, se llama espacio
muestral discreto.

Si un espacio muestral contiene un número


infinito de posibilidades igual al número de
puntos en un segmento de línea, se le llama
espacio muestral continuo.
CONCEPTO DE VARIABLE ALEATORIA
• Una variable aleatoria se llama variable
aleatoria discreta si se puede contar su
conjunto de resultados posibles; es una
variable con un rango finito (o infinito
contable).
• Cuando una variable aleatoria puede tomar
valores en una escala continua, se
denomina variable aleatoria continua; es
una variable con un rango contiene un
intervalo (ya sea finito o infinito) de número
reales.
DISTRIBUCIONES DISCRETAS
DE PROBABILIDAD
• Una variable aleatoria discreta toma cada uno de
sus valores con cierta probabilidad.

• Experimento: lance una moneda 3 veces. Sea


la variable X: el número de caras. ¿Cuántos
puntos muestrales tienen como resultado 2 caras
y un sello? ¿Cuál es la probabilidad con la que la
variable aleatoria tome el valor de 2?
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD

• Al lanzar una moneda 3 veces, la variable X, que representa


el número de caras, toma el valor de 2 con probabilidad de
3/8, pues 3 de los puntos muéstrales igualmente probables
tienen como resultado 2 caras y un sello.

Elementos del SSS SSC SCS CSS CCS CSC SCC CCC
espacio muestral
Ley de
correspondencia

# de caras 0 1 2 3 caras

m 0 1 2 3
P (M = m ) 1/8 3/8 3/8 1/8
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
• Si se suponen pesos iguales para los eventos
simples del ejemplo de los cascos, la probabilidad
de que ningún empleado obtenga de vuelta su
casco correcto, es decir, la probabilidad de que M
tome el valor cero es 1/3. Los valores posibles m
de M y sus probabilidades son:
Espacio
m
m 0 1 3
Muestral
SJB 3 P (M = m ) 1/3 1/2 1/6
SBJ 1
BJS 1
BSJ 0 • Note que los valores de m
JSB
JBS
1
0
agotan todos los casos
posibles y por ello las
probabilidades suman 1.
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
• A cada valor que puede tomar una variable
aleatoria se le puede calcular su probabilidad
sumando la probabilidad de todos los puntos
muestrales que tienen asignado ese valor.

• Distribución de Probabilidad es el conjunto de


probabilidades con las que pueden ocurrir los
valores de una variable aleatoria.
• (Y = y) se lee como: el conjunto de todos los puntos muestrales
(o de S) a los que la variable aleatoria Y les asignó el valor y".
• P(Y = y) se lee como: la probabilidad de que Y tome el valor y.
• p(y) = P(Y = y).
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
• Con frecuencia es conveniente representar todas las
probabilidades de una variable aleatoria X usando una fórmula, la
cual necesariamente sería una función de los valores numéricos x
que denotamos con f(x), g(x), r(x), y así sucesivamente.
• Escribimos entonces, f(x) = P(X = x); es decir, f(3) = P(X = 3).
• El conjunto de pares ordenados (x, f(x)) se llama función de
probabilidad o distribución de probabilidad de la variable
aleatoria discreta X.
El conjunto de pares ordenados (x, f(x)) es una función de
probabilidades, una función de masa de probabilidad o una
distribución de probabilidad de la variable aleatoria X si, para
cada resultado posible x,
1. ||| f ( x)  0
2. |||  f ( x)  1
| x
3. ||| P( X  x)  f ( x)
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
Ejemplo
• Un embarque de 8 computadores similares para una tienda al
detalle contiene 3 que están defectuosos. Si una escuela hace
una compra al azar de 2 de estos computadores, encuentre la
función de probabilidad para el número de defectuosos.
• Solución: Sea X una variable aleatoria cuyos valores x son los
números posibles de computadores defectuosos que la escuela
compra. Entonces, x puede ser cualquiera de los números 0, 1 y
2. Así:  3  5 
  
f (0)  P ( X  0)     
0 2 10
8 28
 
2 De manera que la función
 3  5 
   de probabilidad de X es:
f (1)  P ( X  1)     
1 1 15
8 28 x 0 1 2
 
2
 3  5 
f (x ) 10/28 15/28 3/28
  
f (2)  P ( X  2)     
2 0 3
8 28
 
2
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
Ejemplo
• Si una agencia automotriz vende el 50% de su inventario de
cierto vehículo extranjero equipado con bolsas de aire, encuentre
una fórmula para la distribución de probabilidad del número de
automóviles con bolsas de aire entre los siguientes 4 vehículos
que venda la agencia.
• Solución: Como la probabilidad de vender un automóvil con
bolsas de aire es 0.5, los 24 = 16 puntos del espacio muestral
tienen la misma probabilidad de ocurrencia. El denominador para
todas las probabilidades y también para la función, es 16. El
evento de vender x modelos con bolsas de aire y 4 – x sin bolsas
4
de aire puede ocurrir de  x  formas, donde x pude ser 0, 1, 2,
 
3, 4, entonces la distribución de probabilidad:
f ( x)  P( X  x) ||| es :
4
 
f ( x)    , ||| para _ x  0, : 1, : 2, : 3, : 4.
x
16
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
• Hay muchos problemas donde queremos calcular la
probabilidad de que el valor observado de una
variable aleatoria X sea menor o igual que algún
número real x.
• Al escribir F(x) = P(X ≤ x) para cualquier número real
x, definimos F(x) como la función de la
distribución acumulada de la variable aleatoria X.
La función de la distribución acumulada
F(x) de una variable aleatoria discreta X, con
distribución de probabilidad f(x) es:
F ( x)  P( X  x)   f ( x), __ para __    x  .
tx
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
Ejemplo
Para el ejemplo, los valores de F(x) están dados por:
4
 
f ( x)    , ___ para _ x  0, _ 1, _ 2, _ 3, _ 4.
x
16
1 0, para x < 0,
F ( 0)  P ( X  0) 
16 1/16, para 0 <= x < 1,
1 1 5 5/16, para 1 <= x < 2,
F (1)  P ( X  1)    F(X) =
16 4 16 11/16, para 2 <= x < 3,
1 1 3 11 15/16, para 3 <= x < 4,
F ( 2)  P ( X  2)    
16 4 8 16 1, para x >= 4.
1 1 3 1 15
F (3)  P ( X  3)     
16 4 8 4 16
1 1 3 1 1 16
F ( 4)  P ( X  4)        1.
16 4 8 4 16 16
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD

3/8

1/4 1/4

1/16 1/16

26
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD
HISTOGRAMA DE PROBABILIDAD

6/16
4/16
1/16

1 2 3 4 5
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD

6/16
4/16
1/16

1 2 3 4 5
DISTRIBUCIONES DISCRETAS DE
PROBABILIDAD

1,2000
1,0000
1,0000 0,9375

0,8000 0,6875

0,6000
0,4000 0,3125

0,2000
0,0625

0,0000 1 2 3 4 5
0 1 2 3 4
Distribución Acumulada Discreta
VALOR ESPERADO DE UNA VARIABLE
ALEATORIA DISCRETA
• El valor esperado, la expectativa o media de
una variable aleatoria discreta Y con función de
probabilidad p(Y) se conoce como E(Y) y se
define como:

EY    yp ( y )
y
VALOR ESPERADO DE UNA VARIABLE
ALEATORIA DISCRETA
• Teorema: Sea Y una variable aleatoria discreta
con una función de probabilidad p(y), y sea g(y)
una función de valores reales de y. Entonces el
valor esperado de g(y) está dado por:

Eg (Y )   g ( y ) p( y )
y
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
• Teorema: la varianza de una variable aleatoria discreta Y
está definida como el valor esperado de (Y   ) 2 . Es
decir:

V(Y)  Var(Y)  E Y  μ   2

• La desviación estándar de Y es la raíz cuadrada positiva
de V(Y).
• Si la distribución de probabilidad representa fielmente la
distribución de frecuencias de la población, entonces
• EY    Y V Y    2
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Teorema:
Sea c una constante. Entonces E(c)= c.
Teorema:
Sea g(Y) una función de una variable aleatoria Y y sea c
una constante.
Entonces: E[cg(Y)]=cE[g(Y)].
Teorema:
Sean g1(Y), g2(Y),…, gk(Y) funciones de la variable aleatoria
Y. Entonces:
E[g1(Y)+g2(Y)+…+gk(Y)]= E[g1(Y)]+ E[g2(Y)]+…+ E[gk(Y)].
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Media y varianza de una función lineal de una variable
aleatoria:
Teorema:
Sea Y una variable aleatoria y sea Z= aY+b, donde a y b
son constantes. Entonces,

• E[Z]= aE[Y]+b,

• V(Z)= a 2V (Y )  a 2Var (Y )
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Teorema:
V(Y)= Var(Y)=  2  E[(Y   ) 2 ]  E[Y 2 ]   2

Demostración:

 2  E[(Y   ) 2 ]  E[Y 2  2Y   2 ]


 E (Y 2 )  E (2 Y )  E (  2 )
 E (Y 2 )  2E (Y )   2
 E (Y 2 )  2 2   2  E (Y 2 )   2
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio:
Suponga que una persona tiene la posibilidad de comprar
celulares de última tecnología fuera del país, a
$600.000 COP cada uno y planea venderlos a
$1’200.000 COP cada uno, esta persona sabe que si
no logra venderlos en un plazo de 4 meses los puede
devolver a cambio de $200.000 COP. Encuentre la
utilidad esperada.
Utilice X: número de celulares vendidos
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio:
Siendo h(x) la función de utilidad y entendiendo a la
utilidad como ingresos menos costos, se tiene:
h(x)= 1’200.000x+200.000(10-x)-6’000.000
h(x)= 1’000.000X-4’000.000
Para h(1)= -3’000.000 Para h(6)= 2’000.000
Para h(2)= -2’000.000 Para h(7)= 3’000.000
Para h(3)= -1’000.000 Para h(8)= 4’000.000
Para h(4)= 0 Para h(9)= 5’000.000
Para h(5)= 1’000.000 Para h(10)= 6’000.000
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio:
Halle el valor esperado, la varianza y la
desviación estándar de la variable aleatoria Y,
cuya distribución de probabilidad es:
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio:
Halle el valor esperado, la varianza y la desviación estándar de la variable
aleatoria Y, cuya distribución de probabilidad es:

3
  E (Y )   yp ( y )
y 0

1 1 3 1
 0 *  1*  2 *  3 *
8 4 8 4
 1,75
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio: opción 1
Halle el valor esperado, la varianza y la desviación estándar de la variable
aleatoria Y, cuya distribución de probabilidad es:

3
  E[(Y   ) ]   ( y   ) 2 p( y )
2 2

y 0

1 2 1 2 3 2 1
 (0  1,75) ( )  (1  1,75) ( )  (2  1,75) ( )  (3  1,75) ( )
2

8 4 8 4
 0,9375
    2  0,9375  0,97
VALOR ESPERADO DE UNA VARIABLE ALEATORIA
DISCRETA
Ejercicio: Opción 2
Halle el valor esperado, la varianza y la desviación estándar de la variable
aleatoria Y, cuya distribución de probabilidad es:

E (Y 2 )   y 2 p ( y )
y

1 2 1 3 1
 0 * 1 *  2 *  3 *
2 2 2

8 4 8 4
4
 2  E (Y 2 )   2  4  (1,75) 2  0,9375
DISTRIBUCIÓN UNIFORME
DISCRETA
•La más simple de todas las
distribuciones de probabilidad
discreta es aquella donde la
variable aleatoria toma cada uno
de sus valores con probabilidad
idéntica.
DISTRIBUCIÓN UNIFORME DISCRETA
Una variable aleatoria X es una variable aleatoria discreta
uniforme si cada uno de los n valores de su rango, por ejemplo,
x1, x2, x3,..., xn, tiene la misma probabilidad, por lo tanto
para x = x1, x2, x3,..., xn
f x; n  
1
n
Suponga que X es una variable aleatoria uniforme discreta en
los números enteros consecutivos a, a+1, a+2, ..., b, para a  b
b  a 1 n
b  a  12  1  1 n
 
  EX       i   2
x i x
2 n i 1 12 n i 1

Figura. Función de masa


de probabilidad para una
variable aleatoria discreta
uniforme
DISTRIBUCIÓN UNIFORME DISCRETA
Ejemplo
• Cuando se selecciona al azar una bombilla
de luz de una caja que contiene una bombilla
de 40 watts, una de 60 watts, una de 75
watts y una de 100 watts, cada elemento del
espacio muestral S = {40, 60, 75, 100} ocurre
con probabilidad de ¼. Por lo tanto tenemos
una distribución uniforme, con
1
f ( x;4)  , ____ x  40,60,75,100.
4
DISTRIBUCIÓN UNIFORME DISCRETA
Ejemplo
• Cuando se lanza un dado legal, cada
elemento del espacio muestral
S = {1, 2, 3, 4, 5, 6} ocurre con probabilidad
de 1/6. Por lo tanto, tenemos una distribución
uniforme con
1
f ( x;6)  , ____ x  1,2,3,4,5,6.
6

45
DISTRIBUCIÓN UNIFORME DISCRETA
Ejemplo
• Para el problema encontramos que
1  2  3  4  5  6 21 7
    3.5
6 6 2


b  a  12  1  6  1  12  1  35
 1.7078
12 12 12


1  3.52  2  3.52  3  3.52  4  3.52  5  3.52  6  3.52 
17.5

35
 1.7078
6 6 12
DISTRIBUCIÓN BINOMIAL
• Un ensayo que sólo tiene dos resultados posibles se
usa con tanta frecuencia como bloque de
construcción de un experimento aleatorio que se
conoce como ensayo de Bernoulli.
• Por lo general se supone que los ensayos que
constituyen el experimento aleatorio son
independientes.
• Esto implica que el resultado de un ensayo no
afecta el resultado que se obtiene en cualquier otro
ensayo.
• Además, con frecuencia es razonable suponer que
la probabilidad de un éxito en cada ensayo es
constante.
DISTRIBUCIÓN BINOMIAL
• Ejemplo: Las probabilidades de que un bit transmitido a
través de un canal de transmisión digital se reciba con
error es 0.1. Suponga además que los ensayos de
transmisión son independientes. Sea X el número de bits
con error en los siguientes 4 bits transmitidos. Determine
P(X = 2).
• Solución: E = bit con error; O = bit correcto.
RESULTADO X RESULTADO X
OOOO 0 EOOO 1
OOOE 1 EOOE 2 P( EEOO )  P( E ) P( E ) P(O) P(O)
OOEO 1 EOEO 2
P( EEOO )  (0.1) 2 (0.9) 2  0.0081
OOEE 2 EOEE 3
OEOO 1 EEOO 2 p( X  2)  6(0.0081)  0.0486
OEOE 2 EEOE 3
OEEO 2 EEEO 3
OEEE 3 EEEE 4
DISTRIBUCIÓN BINOMIAL (continuación)
Un experimento aleatorio que consta de n ensayos repetidos
tales que:
1. Los ensayos son independientes,
2. cada ensayo produce únicamente dos resultados posibles,
etiquetados como “éxito” o “fracaso”, y
3. la probabilidad de un éxito en cada ensayo, denotado como p,
permanece constante de un ensayo a otro. La probabilidad de un
fracaso es igual a q=(1-p),
4. se llama experimento binomial.
La variable aleatoria X que es igual al número de ensayos que
producen un éxito tiene una distribución binomial con
parámetros p y n = 1, 2,....
La función de masa de probabilidad de X es
 n x
f x      p  1  p  , x = 0, 1, ..., n
n x

 x
DISTRIBUCIÓN BINOMIAL (continuación)
• Para determinar que un experimento es
binomial es necesario examinar si reúne
las características definidas
anteriormente.

• La Variable aleatoria de interés es el


número de éxitos observados en los n
ensayos.

• “Éxito” es solo el nombre de uno de los


dos resultados posibles de un ensayo en
un experimento,
DISTRIBUCIÓN BINOMIAL (continuación)
• Si X es una variable aleatoria binomial con parámetros
p y n,
  E X   n  p  2  V  X   n  p  1  p 

. Figura. Ejemplo de una


distribución binomial con
n = 20 y p = 0.5
DISTRIBUCIÓN BINOMIAL (continuación)
n x
n p

f x      p  1  p 
20 0,5 n x

x f(x)  x
0 0,000000954
1 0,000019073
2 0,000181198
3 0,001087189
Distribución Binomial para Valores
4 0,004620552 seleccionados de n y p
5 0,014785767 f(x)
6 0,036964417
7 0,073928833
8 0,120134354
9 0,160179138
10 0,176197052
11 0,160179138
12 0,120134354
13 0,073928833
14 0,036964417
15 0,014785767
16 0,004620552
17 0,001087189 x
18 0,000181198
19 0,000019073
20 0,000000954
DISTRIBUCIÓN BINOMIAL (continuación)
n p n x
f x      p  1  p 
n x
10 0,1
 x
x f(x)
0 0,348678440
1 0,387420489
2 0,193710245
3 0,057395628
4 0,011160261
5 0,001488035
6 0,000137781
7 0,000008748
8 0,000000365
9 0,000000009
10 0,000000000
DISTRIBUCIÓN BINOMIAL (continuación)
| p
n x
f x      p  1  p 
n x
10 0,9
 x
x f(x)
0 0,000000000
1 0,000000009
2 0,000000364
3 0,000008748
4 0,000137781
5 0,001488035
6 0,011160261
7 0,057395628
8 0,193710245
9 0,387420489
10 0,348678440
DISTRIBUCIÓN BINOMIAL (continuación)

Ejemplo
• La probabilidad de que cierto componente
sobreviva a una prueba de choque es 3/4.
Encuentre la probabilidad de que sobrevivan
exactamente 2 de los siguientes cuatro
componentes que se prueben.
• Solución: Supongamos que las pruebas son
independientes y como p = ¾ para cada una de
las 4 pruebas, obtenemos
  x     27
2 2
     
2
n 4
f x      p  1  p         
n x 3 1 4! 3
 4  
 x  2  4   4   2!2!  4  128
DISTRIBUCIÓN BINOMIAL (continuación)
Ejemplo
• La probabilidad de que un paciente se recupere de una rara
enfermedad sanguínea es 0.4. Si se sabe que 15 personas contraen
tal enfermedad, ¿cuál es la probabilidad de que a) sobrevivan al
menos 10; b) sobrevivan de 3 a 8; y c) sobrevivan exactamente 5.
Ejemplo
• Solución: Respuesta a) Respuesta b)
 Respuesta a) n p n p
9
15  15 0,4000 15 0,4000
P( X  10)  1  P( X  10)  1    0.4 1  0.4
x 15 x
x x
x 0  x  0 0,000470 3 0,063388
P( X  10)  1  P( X  10)  1  0.9662  0.0338 1 0,004702 4 0,126776
2 0,021942 5 0,185938
 Respuesta b) 3 0,063388 6 0,206598
4 0,126776 7 0,177084
8
15  2
15 
P(3  X  8)    0.4 1  0.4    0.4 1  0.4
x 15 x x 15 x 5 0,185938 8 0,118056
x 0  x  x 0  x  6 0,206598 b) 0,877839
P(3  X  8)  0.9050  0.0271  0.8779 7 0,177084
8 0,118056 Respuesta c)
 Respuesta c) 9 0,061214 0,966167 n p
10 0,024486 15 0,4000
5
15  4
15 
P( X  5)    0.4 1  0.4    0.4 1  0.4
x 15 x x 15 x 11 0,007420 x
x 0  x  x 0  x  12 0,001649 5 0,1859
13 0,000254 c)
P( X  5)  0.4032  0.2173  0.1859
14 0,000024
15 0,000001 0,033833
a) 0,033833
DISTRIBUCIÓN BINOMIAL (continuación)
Ejemplo
• Una cadena grande de tiendas al detalle compra cierto
tipo de dispositivo electrónico de un fabricante. El
fabricante indica que la tasa de defectos del dispositivo
es 3%.
a) El inspector de la cadena elige 20 artículos al azar de
un cargamento ¿Cuál es la probabilidad de que haya al
menos un artículo defectuoso entre estos 20?
b) Suponga que el detallista recibe 10 cargamentos en un
mes y que el inspector prueba aleatoriamente 20
dispositivos por cargamento ¿Cuál es la probabilidad
de que haya 3 cargamentos que contengan al menos
un dispositivo defectuoso?
DISTRIBUCIÓN BINOMIAL (continuación)
• Solución:
• Denote con X el número de dispositivos defectuosos entre los
20. Esta X sigue una distribución b(x; 20, 0.30). Por
consiguiente:
• a) X = número de dispositivos
defectuosos entre los veinte Ejemplo
n Respuesta a)
P( X  1)  1  P( X  0)  1     p x  1  p 
n x
n p
 x 20 0,0300
 20 
P( X  1)  1   0.03 1  0.03  0.4562
0 20 x
0 0,5438 0,4562
0
• b) Y = número de cargamentos que
Respuesta b)
contienen al menos un artículo defectuoso n p
Esta Y sigue una distribución b(y; 10, 0.4562). 10 0,4562
x
n 10  3 0,1602
P(Y  3)     p y  1  p    0.4562 1  0.4562  0.1602
n y 3 7

 y 3
DISTRIBUCIÓN BINOMIAL (continuación)
Ejercicio
• Se sabe que en un lote gigante de fusibles el 5% son
defectuosos. Determine la probabilidad de que se
encuentren al menos tres defectuosos en una muestra
aleatoria de 20 fusibles. ¿Cuantos fusibles en perfecto
estado esperará encontrar?
n x
P( X  3)  1  P( X  0)  P( X  1)  P( X  2)  1     p  1  p 
n x

 x
 20  20  20   20  18 
P( X  3)  1   0.05 1  0.05   0.05 1  0.0519   0.05 1  0.05 
0 1 2

 0  1 2 
 1  0,3584  0,377  0,1886
 0,0759
DISTRIBUCIÓN BINOMIAL (continuación)
Ejercicio
• Se sabe que en un lote gigante de fusibles el 5% son
defectuosos. Determine la probabilidad de que se
encuentren al menos tres defectuosos en una muestra
aleatoria de 20 fusibles. ¿Cuantos fusibles en perfecto
estado esperara encontrar?
  E X   n  p  2  V  X   n  p  1  p 
• El valor esperado en una binomial es np Pero la pregunta se
refiere a los fracasos de manera que encontramos el valor
esperado con n(1-p)= 20*0,95=19
DISTRIBUCIÓN BINOMIAL (continuación)
Ejercicio
La experiencia ha demostrado que el 30% de personas
afectadas por cierta enfermedad se recupera sin
tratamiento. Una compañía farmacéutica desarrolló un
nuevo medicamento. Se seleccionó al azar un grupo de
10 personas con la enfermedad en cuestión y se les
administró el medicamento; poco después nueve se
recuperaron. ¿Es la vacuna absolutamente ineficaz?
Utilice la probabilidad de que al menos nueve personas
de diez afectadas se recuperen.
DISTRIBUCIÓN BINOMIAL (continuación)
Ejercicio
• La experiencia ha demostrado que el 30% de personas afectadas por
cierta enfermedad se recupera sin tratamiento. Una compañía
farmacéutica desarrollo un nuevo remedio. Se selecciono al azar un
grupo de 10 personas con la enfermedad en cuestión y se les
administro el remedio; poco después nueve se recuperaron. ¿Es la
vacuna absolutamente ineficaz? Utilice la probabilidad de que al
menos nueve personas de diez afectadas se recuperen.
Con la vacuna Sin la vacuna
n n
P( X  10)  P( X  9)     p x  1  p 
n x
P( X  10)  P( X  9)     p x  1  p 
n x

 x  x
10  10  1 10 
  0.9 1  0.9   0.9 1  0.9  10  1
  0.3 1  0.3   0.3 1  0.3 
10 0 9
10 0 9

10  9  10  9 


 0,3486  0,387  0,0000059049  0,000137
 0,7356  0,000142
DISTRIBUCIÓN GEOMÉTRICA
• Considérese un experimento aleatorio que
guarda una estrecha relación con el que se
utilizó en la definición de la distribución
binomial.
• Suponga una serie de ensayos de Bernoulli
independientes con una probabilidad constante
p de un éxito en cada ensayo.
• Sin embargo, en lugar de mantener fijo el
número de ensayos, éstos se realizan hasta
cuando se obtiene un éxito.
• Sea que la variable aleatoria X denote el
número de ensayos hasta el primer éxito.
DISTRIBUCIÓN GEOMÉTRICA
• El espacio muestral S del experimento contiene
el siguiente conjunto infinito contable de puntos
muestrales:
• E1:S (éxito en el primer ensayo).

• E2:FS (fracaso en el primero, éxito en el segundo ensayo).


• E3:FFS (primer éxito en el tercer ensayo).
• E4:FFFS (primer éxito en el cuarto ensayo).
• .
• .
• .

• Ek:FFFFF…FS (primer éxito en el k-ésimo ensayo).

• La variable aleatoria X es el número de ensayos hasta el primer éxito inclusive, el


evento numérico (X=x) contiene sólo a Ex
DISTRIBUCIÓN GEOMÉTRICA (continuación)
• Ejemplo: Las probabilidades de que un bit
transmitido a través de un canal de transmisión digital
se reciba con error es 0.1. Suponga además que los
ensayos de transmisión son independientes. Sea
que la variable aleatoria X denote el número de
ensayos hasta el primer éxito. Determine P(X = 4).
• Solución: E = bit con error; O = bit correcto.
RESULTADO X P(OOOE)  P(O) P(O) P(O) P( E )
E 1
P(OOOE)  (0.9)(0.9)(0.9)(0.1)
OE 2
OOE 3 P(OOOE)  (0.9)3 (0.1)  0.0729
OOOE 4
DISTRIBUCIÓN GEOMÉTRICA (continuación)

En una serie de ensayos Bernoulli


independientes, con probabilidad
constante p de un éxito, sea que la
variable aleatoria X denote el número de
ensayos hasta el primer éxito. Entonces X
tiene una distribución geométrica con
parámetro p y

f x   1  p 
x 1
 p, x=1, 2, ...
DISTRIBUCIÓN GEOMÉTRICA

• Si X es una variable aleatoria geométrica con


parámetros p

  EX  
1
 2
 V X  
1 p
2
p p

. Figura. Distribución
geométrica para un valor
del parámetro p de 0.1.
f  x   1  p   p,
x 1 x =1, 2, ...

DISTRIBUCIÓN x
0
p = 0,1000000
f(x)
0,1111111

GEOMÉTRICA
1 0,1000000
2 0,0900000 f(x)
3 0,0810000 0,1200000
4 0,0729000
0,1000000
5 0,0656100

(continuación)
6 0,0590490 0,0800000
7 0,0531441
0,0600000
8 0,0478297
9 0,0430467 0,0400000
10 0,0387420
0,0200000
11 0,0348678
12 0,0313811 0,0000000
13 0,0282430 0 10 20 30 40 50 60 70
14 0,0254187
15 0,0228768
16 0,0205891
17 0,0185302
18 0,0166772
19 0,0150095
20 0,0135085
21 0,0121577
22 0,0109419
23 0,0098477
24 0,0088629
25 0,0079766
26 0,0071790
27 0,0064611
28 0,0058150
29 0,0052335
30 0,0047101
31 0,0042391
32 0,0038152
33 0,0034337
34 0,0030903
35 0,0027813
36 0,0025032
37 0,0022528
38 0,0020276
39 0,0018248
40 0,0016423
41 0,0014781
42 0,0013303
43 0,0011973
44 0,0010775
45 0,0009698
46 0,0008728
47 0,0007855
48 0,0007070
49 0,0006363
50 0,0005726
51 0,0005154
DISTRIBUCIÓN GEOMÉTRICA (continuación)

p = 0,1000000
x f(x)
1 0,1000000
2 0,0900000
3 0,0810000
4 0,0729000
5 0,0656100
6 0,0590490
7 0,0531441
8 0,0478297
9 0,0430467
10 0,0387420
DISTRIBUCIÓN GEOMÉTRICA (continuación)

f  x   1  p 
x 1
p
p = 0,9000000
x f(x)
1 0,9000000
2 0,0900000
3 0,0090000
4 0,0009000
5 0,0000900
6 0,0000090
7 0,0000009
8 0,0000001
9 0,0000000
10 0,0000000
DISTRIBUCIÓN GEOMÉTRICA (continuación)
Ejemplo
• La probabilidad de que un bit transmitido a través de un canal
de transmisión digital se reciba con error es 0.1. Suponga que
las transmisiones son eventos independientes y sea que la
variable aleatoria X denote el número de bits transmitido hasta
el primer error.
• Entonces, P(X = 5) es la probabilidad de que los cuatro
primeros bits se transmitan correctamente y que el quinto tenga
un error. Este evento puede denotarse como {OOOOE}, donde
O denota un bit correcto. Como los ensayos son independientes
y la probabilidad de una transmisión correcta es 0.9.
P(X = 5) = P(OOOOE) = (1 - p)X-1 p = 0.940.1 = 0.066
• Obsérvese de que hay cierta probabilidad de que X sea igual a
cualquier valor entero. Así mismo, si el primer ensayo es un
éxito, entonces X = 1. Por lo tanto, el rango de X es {1, 2, 3,..},
es decir, todos los enteros positivos.
DISTRIBUCIÓN GEOMÉTRICA (continuación)
Ejemplo
• Suponga que la probabilidad de que falle un motor durante
cualquier periodo de una hora es p=0,02. Encuentre la
probabilidad de que un motor funcione bien durante dos horas.
• SOLUCION
• Si Y denota el número de intervalos de una hora hasta la
primera falla del motor, tenemos que: ∞

• P(continúa funcionando 2 horas)= P(Y≥3)= 𝑝(𝑦)


𝑦=3

2
• P(continúa funcionando 2 horas)= 1- 𝑦=1 𝑝(𝑦)

• P(continúa funcionando 2 horas)= 1-p-(1-p)p

• P(continúa funcionando 2 horas)= 1-0,02-(0,98*0,02)=0,9604


DISTRIBUCIÓN GEOMÉTRICA (continuación)
Ejemplo
• La probabilidad de que una oblea contenga una
partícula de contaminación grande es 0.01. Si se
supone que las obleas son independientes, ¿cuál
es la probabilidad de que sea necesario analizar
exactamente 125 obleas antes de detectar una
partícula grande?
• Solución: Sea que X denote el número de
muestras analizadas hasta cuando se detecta una
partícula grande. Entonces X es una variable
aleatoria geométrica con p = 0.01. La probabilidad
pedida es:
P(X = 125) = (0.99)1240,01= 0.0029
DISTRIBUCIÓN GEOMÉTRICA (continuación)
Ejemplo
• Considere la transmisión de bits del
ejemplo visto anteriormente. Ahí, p =
0.1. El número promedio de
transmisiones hasta el primer error
es 1/0.1 = 10. La desviación estándar
del número de transmisiones antes
del primer error es

1  p   1 - 0.1
 9.49
2 2
p 0.1
DISTRIBUCIÓN GEOMÉTRICA (continuación)
• Taller en Clase 1:
• En el ejemplo de los bits, la probabilidad de
que un bit transmitido a través de un canal
de transmisión digital se reciba con error es
0.1. Suponga que se han transmitido 50
bits. ¿Cuál es el número promedio de bits,
hasta el siguiente error?.
DISTRIBUCIÓN GEOMÉTRICA (continuación)
• Taller en Clase 2:
• La probabilidad de una alineación óptica de éxito en
el ensamble de un producto de almacenamiento
óptico de datos es 0,8. Suponga que los ensayos son
independientes.
a) ¿Cuál es la probabilidad de que la primera alineación
de éxito requiera exactamente cuatro ensayos?
b) ¿Cuál es la probabilidad de que la primera alineación
de éxito requiera a lo sumo cuatro ensayos?
c) ¿Cuál es la probabilidad de que la primera alineación
de éxito requiera al menos cuatro ensayos?
DISTRIBUCIÓN BINOMIAL
NEGATIVA
• Una generalización de una distribución
geométrica en la que la variable
aleatoria es el número de ensayos de
Bernoulli requeridos para obtener r
éxitos resulta en la distribución
binomial negativa.
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)
Ejemplo 4.23 M
• Suponga que la probabilidad de que un bit transmitido a través de un
canal de transmisión digital se reciba con error es 0.1. Suponga que las
transmisiones son eventos independientes, y sea que la variable
aleatoria X denote el número de bits transmitido hasta el cuarto error.
• Entonces, X tiene una distribución binomial negativa con r = 4. Las
probabilidades que involucran a X pueden encontrarse como sigue:
P(X = 10) es la probabilidad de que ocurran exactamente 3 errores en
los 9 primeros ensayos y que el ensayo 10 sea el cuarto error. La
probabilidad de que ocurran exactamente 3 errores en los 9 primeros
ensayos se determina a partir de la distribución binomial como
9
 0.13
0.9 6

3
• Puesto que los ensayos son independientes, la probabilidad de que
ocurran exactamente 3 errores en los 9 primeros ensayos y que el
ensayo 10 sea el cuarto error es el producto de la probabilidad de estos
dos eventos, es decir,  9  9
 0.1 0.9 0.1   0.1 0.9
3 6 4 6

3  3
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)

El resultado del ejemplo 4.23 M


puede generalizarse así:
En una serie de ensayos Bernoulli
independientes, con probabilidad constante
p de un éxito, sea que la variable aleatoria
X denote el número de ensayos hasta que
ocurran r éxitos. Entonces X tiene una
distribución binomial negativa con
parámetro p y r = 1, 2, 3, ..., y
 x  1
f x      1  p   p
x r r
Para x = r, r+1, r+2, ...
 r  1
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)

• Si X es una variable aleatoria binomial


negativa con parámetros p y r,
entonces
r 1  p 
  EX  
r
  V X  
2
2
p p
• La distribución binomial negativa
es una generalización de la
distribución geométrica en la que la
variable aleatoria es el número de
ensayos Bernoulli requeridos para
obtener r éxitos.
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)
• Ejemplo 5.17 W
• En la serie de campeonato de la NBA, el equipo que gana 4
juegos de 7 será el ganador. Suponga que el equipo A
tiene una probabilidad de 0.55 de ganarle al equipo B, y
que ambos equipos A y B, se enfrentarán entre sí en los
juegos de campeonato.
a) ¿Cuál es la probabilidad de que el equipo A gane la serie
en los 6 juegos?
b) ¿ Cuál es la probabilidad de que el equipo A gane la serie?
c) Si ambos equipos se enfrentan entre sí en una serie
regional de play-off y el ganador es el que gana 3 de 5
juegos, ¿cuál es la probabilidad de que el equipo A gane el
juego de play-off?
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)
• Solución:
 x  1  5
a) Se tiene: f x      1  p   p     1  0.55  0.554  0.1853
xr r 64

 r  1  3

b) P(el equipo A gane la serie de campeonato) es:


b * (4 : 4,0.55)  b * (5 : 4,0.55)  b * (6 : 4,0.55)  b * (7 : 4,0.55) 
 3  4  5  6
   1  0.55  0.55     1  0.55  0.55     1  0.55  0.55     1  0.557  4  0.554
44 4 5 4 4 6 4 4

 3  3  3  3
 0.0915  0.1647  0.1853  0.1668  0.6083

c) P(el equipo A gane el juego de play-off) es:


b * (3 : 3,0.55)  b * (4 : 3,0.55)  b * (5 : 3,0.55)
 2  3  4
   1  0.55  0.55     1  0.55  0.55     1  0.5553  0.553
3 3 3 4 3 3

 2  2  2
 0.1664  0.2246  0.2021  0.5931
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)
• Ejemplo 4.24 M
• Un avión de alto rendimiento contiene tres computadoras idénticas. Se utiliza únicamente
una para operar el avión; las dos restantes son repuestos que pueden activarse en caso de
que el sistema primario falle. Durante una hora de operación, la probabilidad de una falla en
la computadora primaria ( o de cualquiera de los sistemas de repuesto activados) es
0.0005. Suponiendo que cada hora representa un ensayo independiente, ¿cuál es el tiempo
promedio para que fallen las tres computadoras?
• Sea que X denote el número de horas hasta cuando los tres sistemas fallen, y sea que X1,
X2 y X3 denoten el número de horas de operación antes de una falla de la primera, la
segunda y la tercera computadoras usadas, respectivamente. Entonces X = X1 + X2 + X3.
Además que las horas comprenden ensayos independientes con probabilidad constante de
falla p = 0.0005. Por otra parte, una computadora de repuesto no es afectada por la
cantidad de tiempo que transcurra antes de activarse. Por consiguiente, X tiene una
distribución binomial negativa con p = 0.0005 y r = 3. En consecuencia,   E  X  
r
p
E(X) = 3 / 0.0005 = 6000 horas
• ¿Cuál es la probabilidad de que las 3 computadoras fallen en un vuelo de 5 horas?
• La probabilidad pedida es P(X <= 5) y
P(X <= 5) = P(X = 3) + P(X = 4) + P(X = 5)
 2  3  4
P X  5     1  0.0005  0.00053     1  0.0005  0.00053     1  0.0005  0.00053
0 1 2

 2  2  2
P X  5  1.25 10 10  3.75 1010  7.49 1010  1.249 10 9
DISTRIBUCIÓN BINOMIAL NEGATIVA (continuación)
Taller en Clase 1: 4.69 M.
Suponga que X es una variable
aleatoria binomial negativa con p = 0,2
y r = 4. Determine lo siguiente:
a)E(X)
b)V(X)
c)P(X=20)
d)P(X=19)
e)P(X=21)
DISTRIBUCIÓN HIPERGEOMÉTRICA
• La producción de un día de 850 piezas manufacturadas contiene
50 piezas que no cumplen con los requerimientos del cliente. Se
seleccionan 2 piezas, al azar y sin reemplazo, de la producción de
un día. ¿Cuál es la probabilidad de que en la muestra haya 2
piezas que no cumplan con los requerimientos?
• Este experimento consta de 2 ensayos: se selecciona la primera
pieza y luego se selecciona la segunda. Si embargo, este
experimento presenta diferencias fundamentales con los ejemplos
basados en la distribución binomial.
• En este experimento, los ensayos no son independientes.
Obsérvese que en el inusual caso de que se hiciera el reemplazo
de cada unidad seleccionada antes de la siguiente selección, los
ensayos serían independientes y la probabilidad de que una pieza
no cumpla en cada ensayo sería constante.
DISTRIBUCIÓN HIPERGEOMÉTRICA (continuación)
• Sea que A y B denoten los eventos de que la primera y la
segunda pieza no cumplen, respectivamente; luego
P(A) = 50 / 850 y P(B | A) =49 / 849. Por consiguiente,
saber que la primera pieza no cumple, sugiere que es
menos factible que la segunda pieza seleccionada no
cumpla con los requerimientos del cliente.
• Sea X igual al número de piezas de la muestra que no
cumplen. Entonces,
P(X = 0) = P(ambas piezas cumplen)
= (800 / 850)(799 / 849) = 0.886
P(X = 1) = P(la primera pieza cumple y la segunda no, o
la primera pieza no cumple y la segunda si)
= (800 / 850) (50 / 849) + (50 / 850)(800 / 849) = 0.111
P(X = 2) = P(ambas partes no cumplen)
= (50 / 850)(49 / 849) = 0.003
DISTRIBUCIÓN HIPERGEOMÉTRICA

Un conjunto de N objetos contiene


K objetos clasificados como éxitos y
N – K objetos clasificados como fracasos
Se seleccionan una muestra con tamaño de n objetos al azar
(sin reemplazo) de los N objetos, donde K ≤ N y n ≤ N.
Sea que la variable aleatoria X denote el número de éxitos
en la muestra. Entonces X tiene una distribución
hipergeométrica y
K  N  K 
    
 x  nx 
f x   x = máx {0, n + K – N} hasta mín. {K, n}
N
 
n
DISTRIBUCIÓN HIPERGEOMÉTRICA (continuación)

Si X es una variable aleatoria hipergeométrica con parámetros


N, K y n, entonces la media y la varianza de X son:
 N n
  E X   n  p   V  X   n  p  1  p   
2

 N 1 
donde p = K / N.

 N n
A la expresión  
 N 1 
se le conoce como factor de corrección
para poblaciones finitas.
DISTRIBUCIÓN HIPERGEOMÉTRICA (continuación)
• Ejemplo 4.25 M
• En el ejemplo, la producción de un día de 850 piezas manufacturadas
contiene 50 piezas que no cumplen con los requerimientos del cliente.
Se seleccionan 2 piezas, al azar y sin reemplazo, de la producción de un
día. ¿Cuál es la probabilidad de que en la muestra haya x piezas que
no cumplan con los requerimientos? x = 0, 1, 2

 50  800 
  
P ( X  0)   0  2  319600
  0.886
 850  360825
 
 2  K  N  K 
 50  800      
    x  nx 
P ( X  1)   1  1 

40000
 0.111 f x  
 850  360825 N
   
 2 
n
 50  800 
  
P ( X  2)      1225  0.003
2 0
 850  360825
 
 2 
DISTRIBUCIÓN HIPERGEOMÉTRICA (continuación)
• Ejemplo 4.26 M
• Un lote contiene 100 piezas de un proveedor de tubería local y 200 unidades de
un proveedor de otra ciudad. Si se seleccionan 4 piezas al azar y sin reemplazo,
a) ¿Cuál es la probabilidad de que todas sean del proveedor local?
K  N  K   100  200 
       

P( X  4)  
f x     
x n x  4  0 
 0.0119
N  300 
   
n  4 
b) ¿Cuál es la probabilidad de que dos o más piezas sean del proveedor
local?
 100  200   100  200   100  200 
        
P( X  2)   2  2   3  1   4  0 
   0.408
 300   300   300 
     
 4   4   4 
c) ¿Cuál es la probabilidad de que al menos una pieza de la muestra sea del
proveedor local?  100  200 
  
P( X  1)  1  P( X  0)  1   0  4 
 0.804
 300 
 
 4 
DISTRIBUCIÓN HIPERGEOMÉTRICA (continuación)
• Ejemplo 4.27 M
• Un lote contiene 100 piezas de un proveedor de tubería local
y 200 unidades de un proveedor de otra ciudad. Si se
seleccionan 4 piezas al azar y sin reemplazo,
a) ¿Cuál es la media?
b) ¿Cuál es la varianza?

• La variable aleatoria X es el número de piezas de la


muestra del proveedor local. Entonces p = 100 / 300 = 1/3.
por lo tanto
a)   E  X   n  p E(X) = 4(1/3) = 1.33
 N n
b)   V  X   n  p  1  p   
2

 N 1 
V(X) = 4(1/3)(2/3)[(300 – 4) / (300 - 1)] = 0.88
DISTRIBUCIÓN DE POISSON
Ejemplo 4.29 M
• Considere la transmisión de n bits en un canal de comunicación
digital. Sea la variable aleatoria X igual al número de bits con error.
Cuando la probabilidad de que un bit tenga un error es constante y las
transmisiones son independientes, X tiene una distribución binomial.
Sea que p denote la probabilidad de que un bit tenga un error.
• Entonces, E(X) = pn. Ahora bien, suponga que el número de bits
transmitido aumenta y que la probabilidad de un error disminuye justo lo
suficiente para que pn se mantenga igual a una constante, digamos l,
o sea l = pn. Es decir, n se incrementa y p decrece
consecuentemente, de tal modo que la E(X) permanece constante.
Entonces, p = l / n
n x
 n  l   l
x
n
P( X  x)    p x (1  p) n x     1  
 x  x  n   n
• Se pude demostrar que
e  l lx
lím n P( X  x )  , _____ x  0,1,2,....
x!
DISTRIBUCIÓN DE POISSON (continuación)
Ejemplo
• Se presentan imperfecciones aleatoriamente a lo largo de
un alambre delgado de cobre. Sea que X denote la variable
aleatoria que cuenta el número de imperfecciones en una
longitud de L milímetros de alambre, y suponga que el
número promedio de imperfecciones en L milímetros es l.
• Se hace la partición de la longitud del alambre en n
subintervalos de longitud pequeña, digamos, un micrón
(milésima de milímetro) cada uno. Si este subintervalo es lo
suficientemente pequeño, la probabilidad de que ocurra
más de una imperfección en el subintervalo es
despreciable. Como se supuso que las imperfecciones
ocurren aleatoriamente, se puede interpretar de que cada
intervalo tiene la misma probabilidad de contener una
imperfección, digamos, p.
DISTRIBUCIÓN DE POISSON (continuación)
• Supóngase que la probabilidad de que un subintervalo
contenga una imperfección es independiente de otros
subintervalos , entonces el modelo de la distribución de X
puede establecerse aproximadamente como una variable
aleatoria binomial. Puesto que
E(X) = l = np
se obtiene p=l/n
Es decir, la probabilidad de que un subintervalo contenga
una imperfección es l / n. Con subintervalos lo
suficientemente pequeños, n es muy grande y p es muy
pequeña. Por lo tanto, la distribución de X se obtiene como
en el ejemplo anterior.
DISTRIBUCIÓN DE POISSON (continuación)

Dado un intervalo de números reales, suponga que ocurren conteos al


azar a lo largo del intervalo. Si puede hacerse la partición del
intervalo en subintervalos con una longitud suficientemente pequeña
tal que
1.- La probabilidad de más de un conteo en un subintervalo es cero,
2.- La probabilidad de un conteo en un intervalo es la misma para
todos los subintervalos y proporcional a la longitud del intervalo, y
3.- El conteo en cada subintervalo es independiente de los demás
subintervalos, entonces el experimento aleatorios se denomina
proceso de Poisson.
Si el número promedio de conteos en el intervalo es l > 0, la variable
aleatoria X, que es igual al número de conteos en el intervalo, tiene
una distribución de Poisson con parámetro l, la función de masa de
probabilidad de X es
e  l  lx
f x   , x = 0, 1, 2, ...
x!
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,01

X f(X)
0 0,8187307531
1 0,1637461506
2 0,0163746151
3 0,0010916410
4 0,0000545821
5 0,0000021833
6 0,0000000728
7 0,0000000021
8 0,0000000001
9 0,0000000000
10 0,0000000000
11 0,0000000000
12 0,0000000000
13 0,0000000000
14 0,0000000000
15 0,0000000000
16 0,0000000000
17 0,0000000000
18 0,0000000000
19 0,0000000000
20 0,0000000000
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,05

X f(X)
0 0,3678794412
1 0,3678794412
2 0,1839397206
3 0,0613132402
4 0,0153283100
5 0,0030656620
6 0,0005109437
7 0,0000729920
8 0,0000091240
9 0,0000010138
10 0,0000001014
11 0,0000000092
12 0,0000000008
13 0,0000000001
14 0,0000000000
15 0,0000000000
16 0,0000000000
17 0,0000000000
18 0,0000000000
19 0,0000000000
20 0,0000000000
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,1

X f(X)
0 0,1353352832
1 0,2706705665
2 0,2706705665
3 0,1804470443
4 0,0902235222
5 0,0360894089
6 0,0120298030
7 0,0034370866
8 0,0008592716
9 0,0001909493
10 0,0000381899
11 0,0000069436
12 0,0000011573
13 0,0000001780
14 0,0000000254
15 0,0000000034
16 0,0000000004
17 0,0000000000
18 0,0000000000
19 0,0000000000
20 0,0000000000
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,3

X f(X)
0 0,0024787522
1 0,0148725131
2 0,0446175392
3 0,0892350784
4 0,1338526175
5 0,1606231410
6 0,1606231410
7 0,1376769780
8 0,1032577335
9 0,0688384890
10 0,0413030934
11 0,0225289600
12 0,0112644800
13 0,0051989908
14 0,0022281389
15 0,0008912556
16 0,0003342208
17 0,0001179603
18 0,0000393201
19 0,0000124169
20 0,0000037251
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,5

X f(X)
0 0,0000453999
1 0,0004539993
2 0,0022699965
3 0,0075666550
4 0,0189166374
5 0,0378332748
6 0,0630554580
7 0,0900792257
8 0,1125990321
9 0,1251100357
10 0,1251100357
11 0,1137363961
12 0,0947803301
13 0,0729079462
14 0,0520771044
15 0,0347180696
16 0,0216987935
17 0,0127639962
18 0,0070911090
19 0,0037321626
20 0,0018660813
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,7

X f(X)
0 0,0000008315
1 0,0000116414
2 0,0000814898
3 0,0003802858
4 0,0013310003
5 0,0037268008
6 0,0086958686
7 0,0173917373
8 0,0304355403
9 0,0473441737
10 0,0662818432
11 0,0843587096
12 0,0984184945
13 0,1059891479
14 0,1059891479
15 0,0989232047
16 0,0865578041
17 0,0712828975
18 0,0554422536
19 0,0408521869
20 0,0285965308
DISTRIBUCIÓN DE POISSON (continuación)
n p
20 0,9

X f(X)
0 0,0000000152
1 0,0000002741
2 0,0000024673
3 0,0000148035
4 0,0000666159
5 0,0002398174
6 0,0007194521
7 0,0018500196
8 0,0041625441
9 0,0083250881
10 0,0149851586
11 0,0245211686
12 0,0367817529
13 0,0509285810
14 0,0654796041
15 0,0785755250
16 0,0883974656
17 0,0935973165
18 0,0935973165
19 0,0886711419
20 0,0798040277
DISTRIBUCIÓN DE POISSON (continuación)
Si X es una variable aleatoria de Poisson
con parámetro l, entonces la media y la
varianza de X son.

 = E(X) = l y 2 = V(X) = l
DISTRIBUCIÓN DE POISSON (continuación)
• Es importante usar unidades consistentes en el
cálculo de probabilidades, medias y varianzas
cuando se trabaja con variables aleatorias de Poisson.
• Por ejemplo, si el número promedio de imperfecciones
por mm de alambre es 3.4, entonces:
– el número promedio de imperfecciones en 10 mm de alambre
es 34, y
– el número promedio de imperfecciones en 100 mm de
alambre es 340.
• Si una variable aleatoria de Poisson representa el
número de conteo en cierto intervalo, entonces la
media de la variable aleatoria debe ser igual al
número esperado de conteos en la misma longitud del
intervalo.
DISTRIBUCIÓN DE POISSON (continuación)
Ejemplo
• Para el caso del alambre delgado de cobre, suponga que el número de
imperfecciones sigue una distribución de Poisson con una media de 2.3
imperfecciones por milímetro. Determine la probabilidad de exactamente 2
imperfecciones en un milímetro de alambre.
• Sea que X denote el número de imperfecciones en un mm de alambre. Entonces
l
l
E(X) = 2.3 imperfecciones y x 2.3
f x  
e e 2.3 2
, P( X  2)   0.265
x! 2!
• Determine la probabilidad de 10 imperfecciones en 5 mm de alambre. Sea que X
denote el número de imperfecciones en 5 mm de alambre. Entonces, X tiene una
distribución de Poisson con
E(X) = 5 mm * 2.3 imperfecciones/mm = 11.5 imperfecciones
Por lo tanto, P(x = 10) = e-11.5 11.510 / 10! = 0.113
• Determine la probabilidad de al menos una imperfección en 2 mm de alambre. Sea
que X denote el número de imperfecciones en 2 mm de alambre. Entonces X tiene
una distribución de Poisson con,
E(X) = 2 mm * 2.3 imperfecciones/mm = 4.6 imperfecciones
• Por lo tanto, P( X  1)  1  P( X  0)  1  e4.6  0.9899
DISTRIBUCIÓN DE POISSON (continuación)
Ejemplo
• La contaminación constituye un problema en la fabricación de discos de
almacenamiento óptico. El número de partículas de contaminación que ocurre en un
disco óptico tiene una distribución de Poisson y el número promedio de partículas
por centímetro cuadrado de superficie del disco es 0.1. El área del disco bajo estudio
es de 100 cm2. Encuentre la probabilidad de que ocurran 12 partículas en el área del
disco bajo estudio.
• Sea que X denote el número de partículas en el área del disco bajo estudio. Puesto
que el número promedio de partículas es de 0.1 por cm2
E(X) = 100 cm2 x 0.1 partículas/cm2 = 10 partículas
l
l
Por lo tanto, x 10 12
e 10
f x  
e
, P( X  12)   0.095
x! 12!
• La probabilidad de que ocurran cero partículas en el área del disco bajo estudio es
P(X = 0) = e-10 = 4.54 x 10-5
• Determine la probabilidad de que 12 o menos partículas ocurran en el área del disco
bajo estudio. La probabilidad es 12 10 i
e 10
P( X  12)  P( X  0)  P( X  1)  ...  P( X  12)    0.791
i 0 i!
DISTRIBUCIONES CONTINUAS
DE PROBABILIDAD
• Una variable aleatoria continua tiene una probabilidad cero de
tomar exactamente cualquiera de sus valores.
• En consecuencia, su distribución de probabilidad no se puede
dar en forma tabular.
• Ejemplo: Considérese una variable aleatoria cuyos valores son
las alturas de toda la gente mayor de 21 años. Entre dos
valores cualesquiera, digamos 163.5 y 164.5 cm, o incluso
entre 163.99 y 164.01 cm, hay un número infinito de alturas,
una de las cuales es 164 cm.
• Es remota la probabilidad de seleccionar al azar a alguien que
tenga exactamente 164 cm de estatura y no sea del conjunto
infinitamente grande de estaturas tan cercanas a 164 cm, que
humanamente no sea posible medir la diferencia; por ello,
asignamos una probabilidad cero a tal evento.
DISTRIBUCIONES CONTINUAS DE
PROBABILIDAD (continuación)
• En este caso, sin embargo, si nos referimos a la
probabilidad de seleccionar a una persona que, al
menos mida 163 cm pero no más de 165 cm de
estatura, tratamos ahora con un intervalo en vez
de un valor puntual de nuestra variable aleatoria.
• Trataremos el cálculo de probabilidades para
varios intervalos de variables aleatorias continuas
como P(a < X < b), P(W >= c), etc.
• Observe que cuando X es continua,
P(a  X  b)  P(a  X  b)  P( X  b)  P(a  X  b)
• Esto sólo es cierto cuando la variable X es
continua.
DISTRIBUCIONES CONTINUAS DE
PROBABILIDAD (continuación)
• Aunque la distribución de probabilidad de una
variable aleatoria continua no se puede
presentar de forma tabular, si se establece una
fórmula, la cual será necesariamente una
función de los valores numéricos de la variable
aleatoria continua X y como tal se representa
mediante la notación funcional f(x).
• Al tratar con variables continuas, f(x) por lo
general, se llama función de densidad de
probabilidad, o simplemente función de
densidad de X.
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD
(continuación)
Para una variable aleatoria continua X, una función de
densidad de probabilidad es una función tal que:
1. f x   0 para toda x ϵ R
f(x)

2.  f x   dx  1
 a b x
b
3. Pa  X  b  
 f x  dx  área bajo la curva f x de a a b.
a

La función de distribución acumulada F(x) de una variable


aleatoria continua X con función de densidad f(x) es
x
F  x   P X  x    f t  dt Para    x  .

DISTRIBUCIONES CONTINUAS DE
PROBABILIDAD (continuación)
Ejemplo 3.11 W
• Suponga que el error de la temperatura de reacción, en oC,
para un experimento de laboratorio controlado, es una
variable aleatoria continua X, que tiene la función de
densidad de probabilidad
 x2
 , ________________  1  x  2,
 3
f ( x)  
 0, ___ en _ cualquier _ otro _ caso.


a) Verifique que f(x) es una función de densidad.
b) Encuentre P(0 < X ≤1).
• Solución:  2 x
2
x3
2
8 1
a) __  f ( x)dx   dx    1
a) Evidentemente, f (x) ≥ 0.  1 3 9 1
9 9
Para verificar la condición 2 de 1 x2 x3
1
1
la definición tenemos b) __ P(0  X  1)   dx  
0 3 9 0
9
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD (continuación)
• Ejemplo 3.12 W
• Para la función de densidad del ejemplo 3.11 W
encuentre F(x), y utilícela para evaluar P(0 < X <= 1).
• Solución: Para -1 < x < 2.

x3  1
x
 x t2 t3
F ( x)   f (t )dt   dt  
 1 3 9 9
1

Por _ lo _ tan to ,
 0, _____________ x  1,
 x3  1
 , _______  1  x  2,
 9
F ( x)  
 1, ____________ x  2.



• La distribución acumulada F(x) se expresa de forma
gráfica en esta figura. Así:
2 1 1
P(0  X  1)  F (1)  F (0)    como en el ejemplo 3.11 W.
9 9 9
DISTRIBUCIONES CONTINUAS DE
PROBABILIDAD (continuación)
• Ejemplo 3.13 W
• El Departamento de Energía (DE) asigna proyectos
mediante licitación y, por lo general, estima lo que debería
ser una licitación razonable. Sea b el estimado. El DE
determinó que la función de densidad de la licitación
ganadora (baja) es  5 2
 8b , ________________ 5 b  y  2b,
f ( y)  
 0, ___ en _ cualquier _ otro _ caso.

• Encuentre F(y) y utilícela para determinar la probabilidad de
que la licitación ganadora sea menor que la estimación b
preliminar del DE.
DISTRIBUCIONES CONTINUAS DE
PROBABILIDAD (continuación)
2
Solución: Para b  y  2b,
5
y
y 5 5t 5y 1
F ( y)   dt   
2 b / 5 8b 8b 8b 4
2b / 5

De _ manera _ que
2
0, _____________ y  b,
5
5y 1 2
F(y) =  , _______ b  y  2b,
F ( y )  8b 4 5
1, ____________ y  2b.
Para determinar la probabilidad de que la licitación
ganadora sea menor que la estimación b, se tiene:
5 1 3
P (Y  b)  F (b)   
8 4 8
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD
(continuación)
• Suponga que X variable aleatoria continua con función de
densidad de probabilidad f x 
• La media o valor esperado de X, denotada como  o E(X) es:

  E  X    x  f x dx

• La varianza de X, denotada como 2 o V(X) es:

  V X  
2
 x   
2
 f x dx

• La desviación estándar de X es  =[V(X)]1/2.

. Un histograma es una
aproximación de una
función de densidad de
probabilidad
DISTRIBUCIÓN UNIFORME CONTINUA
Una variable aleatoria continua X con función de densidad de
probabilidad
f x  
1
, a xb
ba
tiene una distribución continua uniforme.

b  a
 2  V X  
b  a 2

  E X  
2 12

f(x)

Función de densidad de
probabilidad continua
uniforme.

x
DISTRIBUCIÓN UNIFORME CONTINUA (continuación)
Ejemplo 5.8 M
• Sea que la variable aleatoria continua X denote la corriente
media de un alambre delgado de cobre en miliamperios.
Suponga que el rango de X es [0, 20 mA], y suponga que la
función de densidad de probabilidad es,
f(x) = 0.05, 0<= x <=20.
• ¿Cuál es la probabilidad de que una medición de la corriente
esté entre 5 y 10 miliamperios?
10
P(5  X  10)   f ( x)dx  5(0.05)  0.25
5
f(x)

0 5 10 15 20 x
• Además,
E(X) = 10 mA y V(X)= 202 / 12 = 33.33 mA2
Por consiguiente la desviación estándar de X es 5.77 mA.
DISTRIBUCIÓN UNIFORME CONTINUA (continuación)

• La función de distribución acumulada de


una variable aleatoria uniforme continua se
obtiene por integración. Si a<x<b, entonces
x 1 xa
F ( x)   du 
a ba ba
• Por lo tanto la descripción completa de la
función de distribución acumulada de una
variable aleatoria uniforme continua es
 _____ 0 ____ x  a

F ( x)   xa a xb
 b  a
 _____ 1 ____ x  b
DISTRIBUCIÓN NORMAL
Una variable aleatoria X con función de densidad de
probabilidad 1 x 2
 
  
f x  
1 2   para   x  
e
 2 
tiene una distribución normal con parámetros , donde
     , y  > 0. Además,

E X    V X    2

f(x)
Función de densidad de
probabilidad normal

x
DISTRIBUCIÓN NORMAL (continuación)

2 = 1

=5
DISTRIBUCIÓN NORMAL (continuación)

2 = 4

=5
DISTRIBUCIÓN NORMAL (continuación)

2 = 1

 = 15
DISTRIBUCIÓN NORMAL (continuación)
Distribución normal estándar
A Una variable aleatoria normal con  = 0 y 2 = 1 se le llama
variable aleatoria normal estándar. Una variable aleatoria
normal estándar se denota como Z.
Si X es una variable aleatoria normal con
E(X) =  y V(X) = 2, entonces la variable aleatoria
X 
Z

es una variable aleatoria normal con E(Z) = 0 y V(Z) = 1. Es
decir, Z es una variable aleatoria normal estándar.
Suponga que X es una variable aleatoria normal con media 
y varianza 2.  X  x
P X  x   P    PZ  z 
   
Entonces:
donde,
Z es una variable aleatoria normal estándar,
z = (x - / es el valor z que se obtiene al estandarizar X.
La probabilidad se obtiene introduciendo el valor de z en la
tabla de la distribución normal estándar.
DISTRIBUCIÓN NORMAL (continuación)

3 2   2 3


68%
95%
99.7%
Probabilidades asociadas con una Distribución125
Normal
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo
• Suponga que los diámetros de bolas de golf producidas por
una compañía están normalmente distribuidas con μ=1,96
pulgadas y σ=0,04 pulgadas. Una bola de golf se considera
defectuosa si su diámetro es menor que 1,90 pulgadas o más
grande que 2,02 pulgadas.
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.10 M
• Suponga que Z es una variable aleatoria normal P(Z<=1.5) = F(1.5)
estándar. Hay tablas que contienen las
probabilidades de la forma P(Z ≤ z). En la
siguiente figura se ilustra el uso de estas tablas
para encontrar P(Z ≤1.5). Se lee hacia abajo la 0 1.5 z
columna z hasta el renglón que es igual a 1.5. la
probabilidad se lee en la columna adyacente, con
el encabezado 0.00, como 0.933193.
z 0.00 0.01 0.02 0.03 … 0.09
0 0,500000 0,503989 0,507978 0,511967 … 0,535856
0.1 0,539828 0,543795 0,547758 0,551717 … 0,575345
0.2 0,579260 0,583166 0,587064 0,590954 … 0,614092
0.3 0,617911 0,621719 0,625516 0,629300 … 0,651732
… … … … … … …
1.5 0,933193 0,934478 0,935744 0,936992 … 0,944083
… … … … … … …
3.9 0,999952 0,999954 0,999956 0,999958 … 0,999967
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.11 M
• Encuentre las siguientes probabilidades con base en las
tablas de la distribución normal estándar. En la práctica una
probabilidad suele redondearse a uno o dos dígitos
significativos.
1. P(Z > 1.26) = 1 – P(Z < 1.26) = 1 – 0.896165 = 0,103835
2. P(Z< -0.86) = 0.194894
3. P(Z > -1.37) = P(Z < 1.37) = 0.914657
4. P(-1.25 < Z < 0.37). Esta probabilidad puede encontrarse
como la diferencia de dos áreas, P(Z < 0.37) – P(Z < - 1.25).
Así: P(Z <0.37) = 0.644309 y P(Z < - 1.25) = 0.105650.
Por lo tanto,
P(-1.25 < Z < 0.37) = 0.644309 - 0.105650 = 0.538659.
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.12 M
• Suponga que las mediciones de la corriente en una tira de
alambre siguen una distribución normal con una media de
10 miliamperios y una varianza de 4 miliamperios2. ¿Cuál es
la probabilidad de que una medición exceda 13
miliamperios?
• Sea que X denote la corriente en miliamperios.
La probabilidad puede representarse como P(X>13)
Sea Z = (X –  /  = (13 – 10)/ 2 = 1.5
Por lo tanto:
P(X>13) = P(Z>1.5) =1 – P(Z<=1.5) = 1 - 0.933193 = 0.066807
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.13 M
• Suponga que las mediciones de la corriente en una tira de
alambre siguen una distribución normal con una media de 10
miliamperios y una varianza de 4 miliamperios2. ¿Cuál es la
probabilidad de que una medición de la corriente esté entre 9 y
11 miliamperios?
P(9 < X < 11) = P([9 – 10] / 2 < [X – 10] /2 < [11 – 10] / 2)
P(9 < X < 11) = P(-0.5 < Z < 0.5)
P(9 < X < 11) = P(Z < 0.5) - P(Z < -0.5)
P(9 < X < 11) = 0.691462 – 0.308538 = 0.382924
• ¿Determine el valor para que la probabilidad de una medición de
la corriente esté bajo el valor de 0.98.
P(X<x) = P((X-10)/2 < (x-10)/2 = P(Z < (x-10)/2) = 0.98
P(X<2.05) = 0.979818 es la más cercana, luego
(x – 10)/2 = 2.05, por tanto x = 2(2.05) + 10 = 14.1 miliamperios.
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.14 M
• Suponga que en la detección de una señal digital el ruido de fondo sigue
una distribución normal con media de 0 voltios y una desviación estándar
de 0.45 voltios. Si el sistema asume que se ha transmitido un uno digital
cuando el voltaje excede 0.9, ¿cuál es la probabilidad de detectar un uno
digital cuando no se envió?
• Sea que la variable aleatoria N denote el voltaje del ruido. La probabilidad
pedida (probabilidad de una detección falsa) es:
P(N > 0.9) = P(N / 0.45 > 0.9 / 0.45 = P(Z > 2)
P(Z > 2) = 1 – P(Z ≤ 2) = 1 – 0.977250 = 0.022750
• Determine los límites simétricos alrededor de la media que incluyan al 99%
de todas las lecturas de ruido. El problema requiere encontrar x tal que
P(-x < N < x) = 0.99.
P(-x < N < x) = P(-x/0.45 < N/0.45 < x/0.45) = P(-x/0.45 < Z < x/0.45) = 0.99
1.00 - 0.99 = 0.01; 0.01 / 2 = 0.005.
Por la tabla normal P(-2.58 < Z < 2.58) = 0.99
Por lo tanto : P(z = 0.005) = -2,58; P(z = 0.995) = 2,58
x / 0.45 = 2.58 de donde x = 2.58(0.45) = 1.16
-x / 0.45 = -2.58 de donde x = -2.58(0.45) = -1.16
DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.15 M
• El diámetro de un eje en un propulsor de almacenamiento óptico, tiene una
distribución normal con media 0.2508 pulgadas y una desviación estándar de
0.0005 pulgadas. Las especificaciones de los ejes son 0.2500 ± 0.0015
pulgadas. ¿Qué proporción de los ejes cumplen con las especificaciones?
• Sea que X denote el diámetro del eje en pulgadas. La probabilidad media se
muestra en la figura.
 0.2485  0.2508 0.2515  0.2508 
P(0.2485  X  0.2515)  P Z 
 0.0005 0.0005 
P(0.2485  X  0.2515)  P(4.6  Z  1.4)
P(0.2485  X  0.2515)  P( Z  1.4)  P( Z  4.6)
P(0.2485  X  0.2515)  0.91924  0.00000  0.91924

0,2485 0,2500 0,2515


DISTRIBUCIÓN NORMAL (continuación)
Ejemplo 5.15 M (continuación)
• La mayoría de los ejes que no cumplen son demasiado
grandes, debido a que la media del proceso se localiza
muy cerca del límite superior de especificación. Si el
proceso se centra de tal modo que su media sea igual al
valor especificado de 0.2500, entonces
 0.2485  0.2500 0.2515  0.2500 
P(0.2485  X  0.2515)  P Z 
 0.0005 0.0005 
P(0.2485  X  0.2515)  P(3  Z  3)
P(0.2485  X  0.2515)  P( Z  3)  P( Z  3)
P(0.2485  X  0.2515)  0.99865  0.00135  0.9973

• Al centrar nuevamente el proceso, el producto aumenta a


aproximadamente 99.73%.
Asignación

DISTRIBUCIÓN NORMAL (continuación)


1. Para la distribución normal estándar, calcular:
a) Percentil 21
b) Cuartil 3°
c) Valores centrales entre los que quedan comprendidas
la cuarta parte de las observaciones.

a) b) c)
Asignación

DISTRIBUCIÓN NORMAL (continuación)


2. En un estudio realizado sobre los ingresos familiares en
los que los dos conyugues trabajan, se ha observado que
el salario mensuales de las mujeres (X) se distribuye
normalmente con media 100, en tanto que los hombres
(Y) tiene la siguiente transformación Y=X+20. Sabiendo
además que el 15% de los hombres no superan el
percentil 75 de las mujeres, se pide:
a) Representar gráficamente el enunciado del problema.
b) El salario medio de los hombres.
c) La desviación estándar del salario de los hombres y de
las mujeres.
DISTRIBUCIÓN NORMAL (continuación)

• Si x no se encuentra en la tabla, debe utilizar la fórmula de la


interpolación lineal. En concreto, dada una función f definida en
un intervalo [a, b], tomamos:
f(x) ≈ f(a) +[(f(b) − f(a))/(b − a))]*(x-a)

• Calculemos, por ejemplo z(2.367). Acotamos x = 2.367 entre los


dos valores más cercanos en la tabla, por defecto y exceso, en
concreto:
a = 2.36, z(a) = 0.990863
b = 2.37, z(b) = 0.991106
Utilizando la formula con estos datos, obtenemos:
z(2.367) = 0.990863 +[(0.991106 − 0.990863)/(2.37 − 2.36)*[2.367
− 2.36 = 0.991033
DISTRIBUCIÓN EXPONENCIAL
• En la exposición de la distribución de Poisson una variable aleatoria se
definió como el número de imperfecciones a lo largo de un alambre de
cobre. La distancia entre las imperfecciones es otra variable aleatoria
que suele ser de interés. Sea que la variable aleatoria X denote la
longitud desde cualquier punto inicial sobre el alambre hasta cuando se
detecta una imperfección.
• En general la variable aleatoria N denota el número de imperfecciones
en x milímetros del alambre. Si el número promedio de imperfecciones
es l por milímetro, entonces N tiene una distribución de Poisson con
media lx. Se supone que el alambre es más largo que el valor de x.
Ahora bien  lx
e ( lx )
0
P ( X > x )  P ( N  0)   e  lx
0!
Por _ lo _ tan to
F ( x )  P( X  x )  1  e lx , ___ x  0
Al _ deri var_ F ( x ) _ la _ función _ de _ densidad _ es :
f ( x )  le lx , ___ x  0
DISTRIBUCIÓN EXPONENCIAL
La variable aleatoria X que es igual a la distancia entre conteos
sucesivos de un proceso de Poisson con media l>0 tiene una
distribución exponencial con parámetro l. La función de
densidad de probabilidad de X es

f x   l  e lx
para 0 ≤ x < ∞

Si la variable aleatoria X tiene una distribución exponencial


Con parámetro l, entonces
EX   V X  
1 1
l l2
f(x)

Función de densidad de
probabilidad exponencial

x
DISTRIBUCIÓN EXPONENCIAL (continuación)
Ejemplo 5.21 M
• En una red de computadoras de una gran corporación, el acceso de
usuario al sistema puede modelarse como un proceso de Poisson con
una media de 25 accesos por hora. ¿Cuál es la probabilidad de que no
haya acceso en un intervalo de 6 minutos?
• Sea que X denote el tiempo en horas desde el principio del intervalo
hasta el primer acceso. Entonces, X tiene una distribución exponencial
con l = 25 accesos por hora.
• 6 minutos = 0.1 horas. La probabilidad pedida se indica en el área
sombreada de la figura.


P( X > 0.1)   25e 25x dx  e 25x e 25( 0.1)  0.082
0.1
0.1

• ¿Cuál es la probabilidad de que el tiempo hasta el siguiente acceso esté


entre 2 y 3 minutos?
0.05
0.05
P(0.033  X  0.05)   25e  25x dx  e  25x  0.152
0.033
0.033
DISTRIBUCIÓN EXPONENCIAL (continuación)
Ejemplo 5.21 M (continuación)
• Determine el intervalo de tiempo tal de que la probabilidad de que no
haya acceso en el intervalo sea 0.90. Se pide la longitud de tiempo x
tal que P(X>x) = 0.90. Ahora bien,


P( X > x )   25e 25t dt  e 25t e 25( x )  0.90
x x
• Por lo tanto, después de sacar logaritmo natural a ambos miembros
-25x ln(e) = ln(0,90)
-25x = -0,10536
x = 0.00421 horas = 0.25 minutos
• Por otra parte, el tiempo promedio hasta el siguiente acceso es
µ = 1/25 = 0.04 horas = 2.4 minutos
• La desviación estándar del tiempo hasta el siguiente acceso es
 = 1/25 = 0.04 horas = 2.4 minutos
DISTRIBUCIÓN EXPONENCIAL (continuación)
Ejemplo 5.22 M
• Sea que X denote el tiempo entre la detección de una partícula rara en un
contador Geiger y suponga que X tiene una distribución exponencial con
E(X)= 1.4 minutos entre detecciones. La probabilidad de que se detecte
una partícula en un lapso de 30 segundos después de activar el contador
es,
l = 1/E(X) = 1/1.4 luego, F(X) = P(X<0.5 minutos) = 1 - e-0.5/1.4 = 0,30
• Suponga que se enciende el contador Geiger y que pasen 3 minutos sin
que se detecte ninguna partícula. ¿Cuál es la probabilidad de que se
detecte una partícula en los siguientes 30 segundos?
• Como ya han transcurrido 3 minutos de espera, quizás se piense que uno
“va a la segura”, es decir, que la probabilidad de una detección positiva en
los siguientes 30 segundos deberá ser mayor que 0.30. Sin embargo, para
una distribución exponencial éste no es el caso. La probabilidad pedida
puede expresarse como la probabilidad condicional P(X<3.5 | X>3). Por la
definición de probabilidad condicional,
P(X<3.5 | X>3) = P(3<X< 3.5) / P(X>3)
donde P(3<X< 3.5) = F(3.5) – F(3) = [1 – e-3.5/1.4] – [1 – e-3/1.4] = 0.0352
y P(X>3) = e-3/1.4 = 0.1173
• Por lo tanto P(X<3.5 | X>3) = 0.0352 / 0.1173 = 0.30
APROXIMACIONES DE UNA
DISTRIBUCIÓN A OTRA
Aproximación de
Hipergeométrica a Binomial

• En la práctica, la aproximación es buena si n/N <= 0.1


Ejemplo
• Se estima que 4000 de 10000 votantes residentes en la ciudad
están en contra de un nuevo impuesto a las ventas. Si se
seleccionan al azar 15 votantes, sin reemplazo, y se les pide la
opinión. ¿ Cuál es la probabilidad de que por lo menos 7 estén a
favor del nuevo impuesto?
1. Calcule la probabilidad utilizando la distribución hipergeometrica.
2. Calcule la probabilidad utilizando la distribución binomial.
3. Es la distribución binomial una buena aproximación en este caso?
Ejemplo
Sea X= número de votantes en contra de un nuevo impuesto a las
ventas x: 0,1,2,3,...., 15 Observando los parámetros, podemos
asegurar que es una distribución hipergeométrica X~
h(x;10000,15,4000)

Como N>>n, es decir, 10000>>15 se puede aproximar a una binomial


h(x;10000,15,4000) b(x;15,0.4) p=k/N p=4000/10000 p=0.4 constante,

Luego se procede a resolver el problema como una binomial. Se pide


hallar la probabilidad de que por lo menos 7 estén a favor del nuevo
impuesto Y= número de votantes a favor de un nuevo impuesto a las
ventas y=0,1,2,....,15 p=0.60 y ~ b(y;15,0.6)
P ( y ≥ 7 ) = 1 − P( y ≤ 6 ) ⇒
por _ complemento P ( y ≥ 7 ) = 1− ∑ P( y;15,0.60 ) ⇒ Tabla _
Binomial _ Acumulada
Aproximación de Binomial a
Poisson
• En un experimento binomial en donde n
es grande y p pequeña, b(x;n,p) se
puede aproximar a p(x;l) donde l=np.
En general, la aproximación es buena si
n>=100, p<=0.1 y np<=20.
Ejemplo
• Suponga que una editorial produce libros en los cuales la
probabilidad de que una página contenga al menos un
error tipográfico es 0,005 y los errores son independientes
de una página a la otra. Cuál es la probabilidad de que un
libro de 400 páginas contenga exactamente 1 página con
errores?
400
• 𝑏 400; 1,0.005 = 0,0051 0,995399
1
• Con la aproximación de Poisson:
𝑒 2 21
• 𝑃 𝑋=1 =
1!
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL Y DE POISSON

Si X es una variable aleatoria binomial con media  = np y


varianza 2 = npq, entonces la forma limitante de la distribución
de X  n p
Z
n pq
es aproximadamente una variable aleatoria normal estándar
n(z; 0, 1). La aproximación es buena para np>5 y n(1 - p)>5.

La distribución normal con media  = np y varianza


2 = np(1 - p), no sólo ofrece una aproximación muy precisa a la
distribución binomial cuando n es grande y p no está
extremadamente cercana a 0 o a 1, sino que también brinda
una aproximación bastante buena cuando n sea pequeña y p
esté razonablemente cercana a ½.
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL Y DE POISSON
(continuación)
Para ilustrar la aproximación normal a la distribución
binomial, primero dibujamos el histograma para b(x; 15, 0.4)
y después superponemos la curva normal particular que
tenga la misma media y varianza que la variable binomial X.
De ahí dibujamos una curva normal con
 = np = (15)(0.4) = 6 y 2 = np(1-p) = (15)(0.4)(0.6) = 3.6
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL
Y DE POISSON (continuación)
• Ejemplo 5.17 M
• En un canal de comunicación digital, suponga que el número de
bits recibidos con error puede modelarse con una variable
aleatoria binomial, y suponga que la probabilidad de que un bit
se reciba con error es 1 x 10-5. Si se transmites 16 millones de
bits. ¿cuál es la probabilidad de que más de 150 presenten
errores?
• Sea que la variable X denote el número de errores. Entonces X
es una variable aleatoria binomial y

 
 16.000.000  5 x
 
150
P(X > 150)  1 - P(X  150)  1 -    10 1  10 5 16.000.00 x

x 0  x 
• El cálculo de esta probabilidad en este caso es complejo y en
este caso se puede recurrir e la distribución normal para obtener
una excelente aproximación en este ejemplo.
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL Y DE
POISSON (continuación)
Ejemplo 5.18 M
• El problema del canal de comunicaciones digital del
ejemplo anterior se resuelve como sigue:
X  n p
n.p = 1*10^(-5) * 16.000.000 = 160 Z
n pq

 x - 160 150  160 


P(X > 150)  P > 
 160(1 - 10-5 ) -5 
 160(1 - 10 )
P(X > 150)  P(Z > -0.79)  P(Z  0.79)  0.785

• Debido a que np = (16 x 106)(1 x 10-5) = 160 y n(1 – p) es


mucho mayor, es de esperarse que la aproximación
funcione bien en este caso.
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL
Y DE POISSON (continuación)
Ejemplo 5.19 M
• Considérese de nuevo la transmisión de bits del ejemplo
5.17 M. Para juzgar qué tan bien funciona la aproximación
normal, suponga que sólo van a transmitirse n = 50 bits y
que la probabilidad de un error es p = 0.1. La probabilidad
exacta de que ocurran hasta 2 errores como máximo es:
 50   50   50 
P( X  2)   0.1 1  0.1   0.1 1  0.1   0.1 1  0.1  0,11173
0 50 1 49 2 48

0 1 2


• Con base en la aproximación normal,

 x -5 25
P(X  2)  P    P( Z  1.415)  0.08
 2.12 2.12 
• Incluso para una muestra de apenas 50 bits, la
aproximación normal es razonable.
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN
BINOMIAL Y DE POISSON (continuación)
Ejemplo 6.15 W
• La probabilidad de que un paciente se recupere de una rara
enfermedad de la sangre es 0.4. Se sabe que 100 personas contrajeron
esta enfermedad, ¿cuál es la probabilidad de que menos de 30
sobrevivan?
• Solución: Representamos con la variable binomial X el número de
pacientes que sobreviven. Como n = 100, deberíamos obtener
resultados bastante precisos usando la aproximación de la curva
normal con  = np = (100)(0.4) = 40
y   npq  100  0.4  0.6  4.899
• Para obtener la probabilidad que se desea tenemos que encontrar el
área de la izquierda de x = 29.5. El valor de z que corresponde a 29.5
es 29.5  40
z  2.14
4.899
y la probabilidad de que menos de 30 de los 100 pacientes sobrevivan
es P(X < 30) ≈ P(Z < -2.14) = 0.0162
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL Y DE POISSON
(continuación)

• La distribución de Poisson se desarrolló como el límite de una distribución


binomial cuando el número de ensayos se incrementa a infinito. Por
consiguiente, no debe sorprender encontrar que la distribución normal
puede usarse para aproximar probabilidades de una variable aleatoria de
Poisson.

La aproximación es buena para l >= 10.


APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL Y DE
POISSON (continuación)
Ejemplo 6.2 W
• Suponga que el número de partículas de asbesto en un
centímetro cuadrado de polvo sigue una distribución de
Poisson con una media de 1000. Si se analiza un
centímetro cuadrado de polvo, ¿cuál es la probabilidad de
encontrar a lo sumo 950 partículas?
• La probabilidad puede expresarse exactamente como
e  l  lx e 10001000 x
950
f x   , P( X  950)  
x! x 0 x!
• La dificultad del cálculo es evidente.
• La probabilidad puede aproximarse como
 950  0.5  1000 
P ( X  x )  P Z    P( Z  1.56)  0.0594
 1000 

Das könnte Ihnen auch gefallen