Beruflich Dokumente
Kultur Dokumente
-DISTRIBUCIONES DISCRETAS
-DISTRIBUCIÓN BINOMIAL
Se usa en inspección de calidad, mercadotecnia, medicina, etc. Es una sucesión de ensayos Bernoulli
donde la probabilidad de éxitos es p.
X representa el numero de éxitos en n ensayos, en esta se debe de obtener exactamente: X=x. Las
suposiciones para esta distribución son:
Px (1-P)n-x
n Px (1-P)1-x x=0,1,2,…,n
b(x; n, p)= x
0 p.c.o.v.
*Para esta función de probabilidad es necesario tener el numero de ensayos (n) así como la probabilidad
del éxito (p) y lo que se busca es la probabilidad de éxitos (x) en n ensayos.
-DISTRIBUCION ACUMULADA
Es la probabilidad de tener k éxitos en n ensayos con el último siendo un éxito. Esta distribución también
es conocida como distribución de pascal.
0 p.c.o.v.
-DISTRIBUCIÓN GEOMÉTRICA
Cuando k=1 surge un caso especial llamado distribución geométrica, esto es:
La variable aleatoria geométrica representa el número de intentos en el cual se presenta el primer éxito.
-Se usa como modelo para la distribución de la longitud de tiempo de espera.
-DISTRIBUCIÓN HIPERGEOMÉTRICA
N = objetos o personas
K N-K n
Pertenecientes pertenecen
A una clase a otra clase x n-x
Valor que nos
Interesa
Sea N el número total de objetos, de manera tal que k de estos es de un tipo y N-k de otro, si
seleccionamos una muestra aleatoria de la población constituida de n objetos de la probabilidad de que x
sea de un tipo exactamente y n-x sea del otro esta dada por la función de probabilidad Hipergeométrica
K n-K x=0,1,2,3,…,n
P(x; N, n, K) = x n-x n - x < n-K
N N, n, K enteros positivos
n
0 p.c.o.v.
* Sus parámetros son N, n, k. Una condición fundamental es que sea sin reemplazo.
Aplicaciones:
F(x1,x2,x3,…,xk; a1,a2,a3,…,ak, N, n) = a1 a2 a3 … ak
x1 x2 x3 … xk
N
n
-DISTRIBUCIÓN POISSON
(Ocurrencias en promedio por unidad de medida)
Sea x una variable aleatoria que representa el número de eventos aleatorios independientes que ocurren a
una rapidez constante sobre el tiempo o el espacio y su función de probabilidad es:
ã- l l x
P(x; ) = x! tomando x=0, 1,2,…
0 p.c.o.v.
Su parámetro es (número promedio de ocurrencias del evento aleatoria por unidad de tiempo o
espacio).
Aplicaciones:
-En análisis de problemas de líneas de espera (colas), control y aseguramiento de calidad, en muestreo.
Teorema:
Sea x una variable aleatoria distribuida binomialmente con parámetros p con base en n repeticiones del
experimento, esto es:
P(X=k)= n pk (1-p)n-k
k
Supóngase que cuando n tiende a , np= (constante), p tiende a cero tal que:
ã- l l x
np --> esto es: lim p(X=k) = x!
n ->
Esto nos dice que podemos aproximar las probabilidades de la Distribución Poisson
siempre que n sea grande y p pequeño.
E(x)= Var.(x)=
-DISTRIBUCIÓN MULTINOMIAL
Si un intento determinado puede ocurrir en cualquiera de los k resultados Ei con sus probabilidades pi,
entonces la distribución de probabilidad de las variables aleatorias xi que representan el número de
ocurrencias en n intentos, es:
La probabilidad de una variable aleatoria continua esta representada por el área bajo la curva que
representa su función de densidad, entre los límites del intervalo y satisface las siguientes condiciones:
àH
L
a) F(X) > para todo x
b)
¥
F x âx =1
àH
L
-¥
c) Para cualquier a,b tenemos:
b
F x âx
p(a < x < b)= a (probabilidad acumulada)
-DISTRIBUCIÓN NORMAL
Se deduce por De Moivre (1783), fue analizada y aplicada a los errores de observación por Gauss, por eso
se le conoce como campana de Gauss.
HL !!! I M
Se dice que una variable aleatoria x se encuentra distribuida si su función de densidad esta dad por
1 -1 x- m 2
f x; m, s = ã 2 s
2p s
!!!
-Forma Canónica
1 -z2
ã 2
2p Distribución estandarizada x – N (0,1) con parámetro =0 =1
Propiedades:
1.- La moda está sobre el eje horizontal donde la curva tiene su máximo ocurre en x= .
2.- La curva es simétrica alrededor de .
3.- La curva tiene sus puntos de inflexión en x= + .
4.-La curva se acerca al eje horizontal en forma asíntota.
5.- El área total de la curva es 1 y el achatamiento de la curva se determina por sigma cuadrada.
-DISTRIBUCIÓN ACUMULADA
HLHL
!!!àI M
p X £ x = F x; m, s =
t- m
1
2p s
x - 1
ã 2
-¥
x- m 2
s âx
z= t =m+sz
s
1
dz = dt dt = sdz
J N
!!!à
s
t- m z2
t- m 1 -
H L
s
p z£ = ã 2 âz
!!!àI M
s 2p -¥
1 x2 - 1 x- m 2
p x1 £ X £ x2 = ã 2 s âx
2p s x1
H
Là
-FUNCION GAMMA
H
LHL
G p =
G n = n- 1 !
¥
0
xp- 1 ã- x âx
Para evaluar integrales en donde el integrando es un producto de una potencia por un exponencial
negativo sobre la recta de los reales positivos, para este caso es mejor emplear la función gamma.
H
Là
Propiedades:
HLH
L
¥
HLHL
G p = xp- 1 ã- x âx
!
!
0
H
L
G n +1 = n !
H
LHL
G n +1 = nG n
G 1 2 = p
G n = n - 1 ! si n e Z+
-DISTRIBUCIÓN BETA
H
HL HL
LHL
LH
F x; a, b =
G a +b
G a G b
xa- 1 1 - x b- 1
a, b > 0
0 p.c.o.v.
m=
a
a +b HLHL s2 =
a+b 2
ab
a+b +1
Se usa para representar variables físicas cuyos valores se encuentran registrados en un intervalo de
longitud finita, se utiliza también como un modelo para atracciones, tal como proporciones de impureza
en un producto químico, o la fracción de tiempo que una máquina esta en reparación.
-DISTRIBUCIÓN ACUMULADA
HLHL H HL
LàHL
LH
p X £ x = F x; a, b =
G a +b
G a G b 0
¥
ta- 1 1 - t b- 1
ât
H
H L
LàHL
LHG a +b
G a G b
¥
0
ta- 1 1 - t b- 1
ât = 1
1 x>1
-DISTRIBUCIÓN GAMMA
HL H
Sea x una variable aleatoria continua que toma solo valores no negativos y tiene una distribución gamma
L
con parámetros alfa y beta mayores que cero entonces:
1 - x
F x; a, b = xa- 1 ã b a, b > 0 x >0
G a ba
H
L
0 p.c.o.v.
E x =ab s 2 = ab2
Aplicaciones:
-Para representar el tiempo aleatorio de falla de un sistema que ocurre cuando de manera exacta las
componentes fallan.
-Ingresos familiares, edad del hombre al contraer matrimonio.
!!!
*Nota: Para valores grandes de podemos aproximar a una distribución normal.
x - ab
Z=
ab2
HLHLH
Là
-DISTRIBUCIÓN ACUMULADA
1 X - t
p X £ x = F x; a, b = ta- 1 ã b ât
G a ba 0
HL
-DISTRIBUCIÓN EXPONENCIAL
(Caso especial de la distribución gamma cuando alfa = 1)
1 - x
f x; q = ã q q >0
q
H
L HL
E x =q
Aplicaciones:
Var. x =q2
0 p.c.o.v.
HL
-DISTRIBUCIÓN UNIFORME
1
f x; a, b = a <x < b
b- a
0 p.c.o.v.
*Parámetros: a y b.
m=
a +b
2
2
s =
HL
b- a
12
2
HL
-DISTRIBUCIÓN ACUMULADA
F x; a, b = 0 para x < a
x- a
a <x < b
b- a
1 x>b
(TERCER PARCIAL)
Sean X y Y dos variables discretas, la probabilidad de que X=x y Y=y esta determinada por la función de
probabilidad bivariada:
La función f(x, y) es una distribución de probabilidad conjunta de las variables aleatorias X y Y si:
2 LââHL
1) f(x, y) 0
X Y
(x,y)
f x, y =1
3) p(x=x, Y=y)= f(x ,y) para cualquier región A en el plano xy P[(x, y) A]= f(x,y)
Cuando se requiere medir mas de una característica en algún fenómeno aleatorio se requiere hacer uso de
modelos multivariados.
CASO CONTINUO
Sea X y Y dos variables aleatorias continúas si existe una función f(x, y) tal que la probabilidad conjunta
este dada por:
LHHL LààHL
1 p a £ x £ b, c £ y £ £ £ d =
b d
f x, y âx â y para cualquier valor a, b, c,
LààHL
a c
d en donde f x, y ³ 0 - ¥ £ x < y £ ¥
¥ ¥
2 f x, y âx â y =1
-¥ -¥
L@HLD
ààHL
3) f(x,y) es la función de densidad de probabilidad bivariada de X y Y
4 P x, y Î A =
A
f x, y â x â y para cualquier región de A en el plano xy
H LHL
ààHL
Es la probabilidad conjunta X < x y Y< y dada por:
HL HL
x y
p X £ x, Y £ y = F x, y = f u, v â v â u
-¥ -¥
si queremos conocer f x, y y tenemos F x, y entonces tendremos que hacer las derivadas parciales
de X y Y.
Sean X y Y variables aleatorias discretas con función de probabilidad de densidad conjunta p(x, y). Las
funciones marginales de probabilidad de X y Y están dadas por:
Fx(x)=gx(x)=Px(x)= p(x,y)
y
Fy(y)=hy(y)=Py(y)= p(x,y)
x
CASO CONTINUO
H
LàHL
Sean X y Y variables aleatorias continuas con una función de densidad de probabilidad conjunta f(x, y).
Las funciones de densidad de probabilidad marginales están dadas por:
¥
fx x = f x, y â y
H
LàHL
-¥
¥
fy y = f x, y âx
-¥
HLH
LààH
HL
-¥
à L HL
y ¥
p Y £ y = Fy y = f x, t â x ât
-¥ -¥
y
= fy t ât = F ¥ , y
-¥
H LHLààHL
Distribución acumulada de X y Y
p X £ x, Y £ y = F x, y =
x y
-¥ -¥
f u, v â v â u
Para variables aleatorias X1,X2,…,Xn tenemos f(X1,X2,…,Xn) entonces la distribución marginal esta
dada por:
H
LâââH L
CASO DISCRETO
fX1 =g X1 =
X2 X3
...
Xn
f X1, X2, ..., Xn
para valores del intervalo de X1
H LâââH L
Ahora la distribución marginal de X1, X2 y X3 esta dad por:
m X1, X2, X3 =
X4 X5
...
Xn
f X1, X2, ..., Xn
CASO CONTINUO
H
Làà àH L
Si tenemos X1,X2,…,Xn variables aleatorias continuas con función de densidad f(X1,X2,…,Xn) su
densidad de probabilidad conjunta, su densidad marginal de X2 esta dad por:
HLàà àH L
¥ ¥ ¥
h X2 = ... f X1, X2, ..., Xn â X1 âX3 ... âXn
-¥ -¥ -¥
¥ ¥ ¥
j X1, Xn = ... f X1, X2, ..., Xn â X2 âX3 ... âXn - 1
-¥ -¥ -¥
- ¥ £ X1 £ Xn £ ¥
DISTRIBUCIONES CONDICIONALES
ÈLH
H L
LHL
Si f(x, y) es el valor de la distribución de probabilidad conjunta en las variables aleatorias discretas X y Y
H
en todos (x,y) y h(y) es el valor de la distribución marginal de Y en y, la función dada por:
f x, y
f x y = h y ¹ 0
h y
Para X dentro del intervalo X se llama la distribución condicional de x dado Y=y. De igual manera se
g(x) es la distribución marginal de X en x la función dada por:
ÈLH
H
w y
HL
LHL x =
f x, y
g x
g x ¹ 0
Sea X y Y dos variables aleatorias con distribución conjunta. Se dice que X y Y son estadísticamente
independientes si y solo si:
En general:
MOMENTOS
H
Lâ
m'r = E xr =HL
Sea X una variable aleatoria. El r-esimo momento de x alrededor de cero se define como:
àHL =
xr p x
xr f x âx
si x es discreta
si x es continua
HLà
â
H LH
L
Sea X una variables aleatoria, el r-esimo momento central de X o el r-esimo momento de la media de X
se define por:
HLHL
mr = E x - m r =
=
x- mr p x
x - m r f x âx
si x es discreta
si x es continua
COEFICIENTE DE ASIMETRÍA
m3
a3 = a3 > 0 asimetría positiva
3
m2 2
a3 > 0 asimetría negativa
a3 = 0 simétrica
COEFICIENTE DE CURTOSIS
a4 =
m4
m22
a4 > 0 H
HL L
platicurtica sin que se note mucho la curva
H
a4 > 0 letocurtica puntiaguda