Sie sind auf Seite 1von 8

IDENTIFICANDO LAS DISTRIBUCIONES DE

PROBABILIDAD

I. PROCESO DE BERNOULLI:
Es un experimento que puede arrojar 2 resultados posibles. A uno de los resultados se lo
denomina arbitrariamente "xito" y al otro "fracaso". El experimento de Bernoulli lleva
asociada una probabilidad (la probabilidad de "xito").

Distribucin binomial
Distribucin geomtrica (caso especial de Pascal con k=1 )
Distribucin binomial negativa (pascal)

1. Distribucin binomial
"Cul es la probabilidad de obtener x xitos en n intentos?"
Estrategia
Sabemos que nos encontramos frente a la necesidad de emplear una distribucin
binomial cuando:
nos dan una determinada cantidad de elementos (piezas, intentos, etc.)

cada uno de esos elementos puede o no cumplir con una determinada condicin (que la
pieza sea defectuosa, que el intento haya salido bien, etc.)

nos dan o es posible calcular la probabilidad de que un elemento cumpla con la
condicin

nos preguntan cul es la probabilidad de que determinada cantidad de elementos, de
los n que hay en total, cumplan con la condicin. Por lo general estos problemas se
resuelven encontrando la forma de calcular la probabilidad de que un elemento cumpla
con la condicin sin importar cuntos elementos haya. Luego tomaremos una variable X
que representar cuntos elementos de los n que hay en total cumplen con la condicin.
Sus parmetros sern:

p: la probabilidad de que un elemento cumpla con la condicin
n: la cantidad de elementos que hay en total.

Siempre comenzaremos por suponer que los n elementos son independientes entre s, es
decir, que el hecho de que un elemento cumpla o no con la condicin no afecta la
probabilidad de que los dems la cumplan o no. De lo contrario no podramos usar la
distribucin binomial porque no estaramos cumpliendo con las caractersticas del
proceso de Bernoulli.

2. Distribucin Geomtrica
Sabemos que nos encontramos frente a una distribucin geomtrica cuando:

Nos dicen que vamos a repetir un determinado experimento hasta que logremos un
xito (ejemplo: que vamos a revisar piezas hasta que encontremos una que no sea
defectuosa, o que vamos a disparar contra un blanco tantas veces como sea necesario
hasta que acertemos, o que vamos a observar das hasta que haya un da soleado,
etc.)

Nos dan o podemos calcular la probabilidad de tener xito en cada uno de los intentos
(la probabilidad de que cada pieza sea buena, la probabilidad de acertar cada vez que
disparamos, la probabilidad de que un da sea soleado, etc.)

Nos preguntan cul es la probabilidad de que logremos el objetivo en menos de x
repeticiones, o la probabilidad de que nos tome ms de x intentos lograr el objetivo, o
la probabilidad de que lo logremos exactamente en el x-simo intento. La nica
dificultad que esta distribucin puede presentar es el clculo de la probabilidad de
tener xito en cada uno de los intentos. Una vez obtenido ese valor, tendremos el
parmetro p de la distribucin, y el uso de la frmula ser inmediato.

La distribucin geomtrica en realidad es un caso particular de la distribucin de Pascal.
Una variable geomtrica puede ser vista como una variable de Pascal cuyo parmetro
p es el mismo que el de la geomtrica, y cuyo parmetro k es igual a 1. De ah que
sumar variables geomtricas es en esencia como sumar variables de Pascal, y de ah
que la suma de variables geomtricas es una variable de Pascal. Por esto, si
sospechamos que en un problema tendremos que sumar variables geomtricas, puede
resultar una idea bastante prctica considerarlas desde el principio variables de
Pascal. De hecho la distribucin geomtrica se ensea separada de la pascal porque
es ms fcil aprender del caso particular al caso general.

Una caracterstica de la distribucin geomtrica que es importante destacar, es lo que se
conoce como "falta de memoria". Se dice que la distribucin geomtrica "no tiene
memoria". Esta caracterstica tambin la tiene su anloga continua, la distribucin
exponencial negativa. De qu se trata? La distribucin geomtrica no es afectada
por lo que vino antes. Es decir, no importa desde cundo empecemos a contar,
siempre la probabilidad de las distintas cantidades de intentos hasta alcanzar un xito
estar distribuida de la misma forma. No importa si empezamos a contar justo
despus de un xito, o despus de una racha de 30 fracasos. Consideremos por
ejemplo que en una determinada ciudad con muy mal clima, cada da tiene una
probabilidad 0,2 de ser soleado.

3. Distribucin binomial negativa (Pascal)
"Cul es la probabilidad de obtener el k-simo xito en el intento nmero x?"
Sabemos que nos encontramos frente a una distribucin de pascal cuando:

Nos describen un experimento de Bernoulli (probabilidad de que una determinada
pieza sea defectuosa: 0,2; probabilidad de que una operacin resulte exitosa 0,9; etc.)

Nos dicen que vamos a seguir hasta el k-simo xito (hasta que encontremos 500
piezas no falladas; hasta lograr 8 operaciones exitosas; etc.)

Nos preguntan cul es la probabilidad de que logremos el objetivo en menos de
repeticiones, o la probabilidad de que nos tome ms de x intentos lograr el objetivo, o
la probabilidad de que lo logremos exactamente en el x-simo intento.

Al igual que suceda con la binomial, la principal dificultad con la distribucin de
Pascal, una vez reconocida, puede consistir en conseguir la probabilidad de que un
intento resulte exitoso. Luego para averiguar la cantidad de intentos necesarios para
obtener k xitos el uso de la frmula es bastante inmediato. Existe un caso particular
de la distribucin de Pascal, denominado distribucin geomtrica. Dicha distribucin
es una Pascal en la cual k = 1. Por eso la distribucin geomtrica slo tiene el
parmetro p. Generalmente y a menos que el problema sea demasiado obvio, no
conviene hablar de las distribuciones geomtrica y de Pascal como cosas distintas.
De hecho la suma de variables geomtricas da una variable de Pascal. Y esto no es
sorprendente, porque al sumar las variables de Pascal de igual p se obtiene otra
variable de pascal con la suma de las k. Entonces la suma de 8 variables geomtricas
con un determinado p resulta ser una variable de Pascal con k = 8 (y con el mismo p
que las geomtricas). Esperar 8 veces a tener un xito (8 geomtricas) es como
esperar, empezando de cero, hasta el 8vo xito (Pascal con k = 8).


II. PROCESO DE POISSON
Es un proceso que consiste en considerar un continuo, en el cual ocurren eventos.

Si por ejemplo consideramos la cantidad de fallas que una mquina tiene en 3 horas, el
continuo es el tiempo, y los eventos son las fallas de la mquina. Otro ejemplo puede
ser considerar la cantidad de muertes por determinada enfermedad en un ao. Pero el
continuo al que nos referimos no tiene necesariamente que ser tiempo. Por ejemplo
podemos considerar un rollo de tela de 100 metros de longitud y contar la cantidad
de manchas en ese tramo. En ese ejemplo, el continuo es la tela y los eventos las
manchas.

Se definen las siguientes variables:
T : la longitud de un intervalo del continuo que va a estudiarse.
k : la cantidad de eventos que hay en ese intervalo.
l : la cantidad esperada de eventos por unidad de tiempo (intensidad).

Ejemplo
Si una mquina falla habitualmente en promedio 2 veces por hora, y la controlamos
durante determinadas 3 horas y falla 7 veces, tenemos:
T = 3 horas
k = 7 eventos
l = 2 eventos / hora
Generalmente conocemos el valor de l, y entonces nos preguntamos cuntos eventos
obtendremos en una determinada cantidad de tiempo, o cunto tiempo tendremos que
esperar hasta observar una determinada cantidad de eventos. De esta forma
obtenemos 2 distribuciones:

Poisson: consiste en preguntar por la cantidad de eventos en el perodo T. Es decir,
dado T, calcular la distribucin de k.
Exponencial: consiste en preguntar por la cantidad de tiempo necesaria hasta obtener
el primer evento.

Distribucin de poisson
Distribucin exponencial (llamada exponencial negativa)

4. Distribucin de Poisson
"Cul es la probabilidad de obtener x eventos en el intervalo estudiado?"

Si bien el proceso de Poisson trabaja con los parmetros T (longitud del intervalo) y l
(intensidad), la distribucin de Poisson usa solamente el parmetro m = l.T.
Como T es la longitud del intervalo, y l es la cantidad esperada de eventos por unidad
de tiempo, entonces m resulta ser la media. Es decir que esta distribucin tiene la
caracterstica de que su media resulta valer directamente lo mismo que valga el
parmetro m.

Estrategia

Sabemos que nos encontramos frente a la necesidad de emplear una distribucin
Poisson cuando existe un determinado intervalo en el cual suceden eventos, y
necesitamos calcular cuntos eventos sucedern en dicho intervalo.

Puede ser que nos den la longitud del intervalo y la intensidad, o que directamente
nos den la media.

Cuando nos dan la longitud del intervalo y la intensidad:
T. El intervalo es continuo, pero no tiene por qu necesariamente ser tiempo.
Ejemplos de intervalos: 2 horas, 3 metros de tela, 10 km. de una ruta, etc. Siempre
ser un nmero multiplicado por una unidad de medida, o algo que deba ser
interpretado o tomado como una unidad de medida.
l. La intensidad es la cantidad esperada de eventos por unidad de tiempo. Ejemplos
de intensidades: 4 visitantes por hora, 5 fallas por metro de tela, 3 baches por km.,
etc. Vemos que siempre sus unidades sern una unidad de evento (visitantes,
fallas, baches, etc.) dividida por una unidad de medida del mismo tipo que la del
intervalo (Es decir, si el intervalo es 3 metros de tela, es decir, longitud de tela, la
intensidad deber ser una cierta cantidad de algo por unidad de longitud de la tela,
por ejemplo 5 fallas por metro de tela).
Si nos dieran la intensidad al revs (Ej.: en vez de 3 baches/km., 1/3
km./bache) slo hay que acomodarla haciendo 1 sobre eso.
Luego podremos obtener la media como m = l.T. La media quedar del estilo 8
visitantes, 15 fallas, 30 baches, etc. Siempre su unidad ser la misma que la unidad
de evento que apareca en el numerador de la intensidad.

Cuando nos dan directamente la media: puede ser que directamente nos digan el
valor de la media, o que nos digan, por ejemplo, "3 errores por pgina", en un
contexto donde se sobreentiende que estamos hablando de una (y slo una) pgina.
Notemos que la en la media ya estn "incluidos" tanto la intensidad como la
duracin, y por lo tanto una distribucin con 2 eventos/hora en 5 horas, ser idntica
a una distribucin con 1 evento/hora en 10 horas.
Una vez determinada la media, el problema ya no tiene mucha dificultad. No
debemos olvidar suponer que el hecho de que en un determinado momento ocurra un
evento, no nos afecta la probabilidad de tener o no ms eventos, y cundo ocurrirn



5. Distribucin exponencial (llamada en algunas ocasiones exponencial
negativa)
"Cul es la probabilidad de tener que esperar x tiempo hasta obtener el primer evento?"

Estrategia
Sabemos que nos encontramos frente a una distribucin exponencial negativa cuando:

nos describen un continuo en el cual suceden eventos, como por ejemplo visitas a lo
largo de un da, defectos a lo largo de una tela, fallas de un circuito a lo largo de un
determinado perodo, etc.

nos dicen que vamos a continuar observando hasta que suceda el primer evento.
Ejemplo: hasta que llegue una visita, hasta que encontremos un defecto en la tela, hasta
que el circuito falle, etc. Y tambin lo pueden decir al revs: mientras no llegue ninguna
visita, mientras no encontremos un defecto en la tela, mientras el circuito no falle, etc.

nos dan o nos permiten calcular la frecuencia promedio con que lo eventos suceden (l).
Ejemplo: 3 visitas cada 15 minutos, 2 defectos por metro de tela, 3 fallas del circuito
por da.

nos preguntan acerca del tiempo, por ejemplo: cul es la probabilidad de que el evento
suceda en menos de x tiempo, la probabilidad de que tome ms de x tiempo, etc.

Es importante saber que en un proceso Poisson, el intervalo de tiempo entre dos eventos
consecutivos es siempre una variable exponencial negativa.

Otra caracterstica de la distribucin exponencial que es importante destacar, es lo que
se conoce como "falta de memoria". Se dice que la distribucin exponencial "no tiene
memoria". Esta caracterstica tambin la tiene su anloga discreta, la distribucin
geomtrica. De qu se trata? La distribucin exponencial no es afectada por lo que
vino antes. Es decir, no importa desde cundo empecemos a contar, siempre la cantidad
de tiempo que transcurrir hasta que suceda el primer evento est distribuido de la
misma forma. Dicho de otro modo, la probabilidad de que haya que esperar una
determinada cantidad de tiempo hasta que haya un evento ser la misma, tanto si
empezamos a contar desde justo despus de un evento como luego de una larga racha
sin eventos.

Das könnte Ihnen auch gefallen