Sie sind auf Seite 1von 31

PROBABILIDAD CONDICIONAL

La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina probabilidad condicionada y se define(Ver formula:) Esta definicin es consistente, es decir cumple los axiomas de probabilidad. Cuando ocurre un suceso cambia el espacio muestral, por eso cambia la probabilidad. A veces es ms fcil calcular la probabilidad condicionada teniendo en cuenta este cambio de espacio muestral.

TEOREMA DE MULTIPLICACION
Dados dos sucesos A y B, tales que P(B) > 0, P(A n B) = P(A|B) P(B) Si adems, P(A) > 0, P(A n B) = P(B | A) P(A) La regla del producto es especialmente til cuando el experimento consta de varias etapas ya que se puede generalizar.

Sucesos independientes Dos sucesos A y B son independientes si p(B/A) = p(A) Sucesos dependientes Dos sucesos A y B son dependientes si p(B/A) p(A)

PROBABILIDAD TOTAL
Se llama particin a conjunto de sucesos Ai tales que : A1UA2 U ... U An = S y Ai AJ = para todo i j,es decir un conjunto de sucesos mutuamente excluyentes y que cubren todo el espacio muestral.

Regla de la probabilidad total


Si un conjunto de sucesos Ai forman una particin del espacio muestral y p(Ai) 0 . Para todo Ai, para cualquier otro suceso B se cumple :

Ejemplo Se dispone de tres cajas con bombillas. La primera contiene 10 bombillas, de las cuales hay cuatro fundidas; en la segunda hay seis bombillas, estando una de ellas fundida, y la tercera caja hay tres bombillas fundidas de un total de ocho. Cul es la probabilidad de que al tomar una bombilla al azar de una cualquiera de las cajas, est fundida?

SUCESOS INDEPENDIENTES
Dos sucesos son independientes si y slo si p(A B) = p(A) p(B). Si dos sucesos son independientes

del

mismo

modo

p(B|A)

p(B).

Esta propiedad coincide ms con la idea intuitiva de independencia y algunos textos la dan como definicin. Hay que notar, sin embargo, que ambas definiciones no son estrictamente equivalentes

TEOREMA DE BAYES
El Teorema de Bayes, dentro de la teora probabilstica, proporciona la distribucin de probabilidad condicional de un evento "A" dado otro evento "B" (probabilidad posteriori), en funcin de la distribucin de probabilidad condicional del evento "B" dado "A" y de la distribucin de probabilidad marginal del evento "A" (probabilidad simple o apriori). Partiendo de las frmulas de probabilidad condicional y probabilidad conjunta para eventos estadsticamente dependientes se proceder a enunciar el Teorema de Bayes.

Sea un espacio muestral que est formado por los eventos A1, A2, A3,.....,An mutuamente excluyentes, luego, = A1A2A3.....An
A1 A3

A2 = A1A2A3.....An A4

An

A2

Luego si ocurre un evento B definido en , observamos que; B = B = (A1A2A3.....An)B = (A1B)(A2B)(A3B).....(AnB) Donde cada uno de los eventos AiB son eventos mutuamente excluyentes, por lo que p(B) = p(A1B) + p(A2B) + p(A3B) +......+ p(AnB)

y como la p(AiB) = p(Ai)p(BAi) , o sea que la probabilidad de que ocurra el evento Ai y el evento B es igual al teorema de la multiplicacin para probabilidad condicional, luego; p(B) = p(A1)p(BA1) + p(A2)p(BA2) + p(A3)p(BA3) + p(An)p(BAn) Si deseamos calcular la probabilidad de que ocurra un evento Ai dado que B ya ocurri, entonces;

Sean , A1 ,A2 ... An eventos mutuamente excluyentes tales que, cualquier evento B en el espacio muestral pertenece a uno y slo a uno de estos evento. Entonces la probabilidad de que ocurra cualquier evento Ak dado que ha ocurrido el evento B se calcular por la siguiente frmula:

Por lo tanto, sustituyendo la frmula de probabilidad condicional, se obtiene la frmula general para el Teorema de Bayes:

Donde: El numerador es la probabilidad conjunta: El denominador es la probabilidad marginal de que ocurra el evento B

Como "A" y "B" son eventos estadsticamente dependientes, el Teorema de Bayes se puede representar tambin utilizando el diagrama de rbol.

EXPERIMENTOS COMPUESTOS
Cuando un experimento se realiza de forma repetida, podemos considerar los sucesivos resultados como el resultado de un nico suceso compuesto de todos ellos. Igualmente, al realizar dos o ms experimentos diferentes, podemos considerar el experimento compuesto de todos ellos, tambin como un experimento nico. En ambos casos, el espacio muestral estar constituido por el producto cartesiano de los espacios muestrales de los distintos experimentos elementales. En estos casos, es conveniente usar el llamado diagrama en rbol para hacerse una idea global de todos ellos

DIAGRAMAS DE ARBOL
Para la construccin de tal diagrama se partir poniendo una rama para cada una de las posibilidades, acompaada de su probabilidad. El final de cada rama parcial se constituye a su vez, en nudo del cual parten nuevas ramas, segn las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final). Hay que tener en cuenta: que la suma de probabilidades de las ramas de cada nudo ha de dar 1.

EJEMPLO
Calcular la probabilidad de que al arrojar al aire tres monedas, salgan: Tres caras R:

VARIABLE ALEATORIA
Se llama variable aleatoria (v.a.) a toda aplicacin que asocia a cada elemento del espacio muestral ( ) de un experimento, un nmero real.

Ejemplo: Consideremos el experimento que consiste en lanzar tres monedas al aire. Llamaremos C a Cara y X a Cruz, el espacio muestral ser: ={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX} Definimos la variable aleatoria (v.a.) X como el nmero de caras, estamos asociando a cada suceso un nmero, as: X(CCC)=3 X(CCX)=2 X(XXC)=1 X(XXX) =0 Las variables aleatorias las podemos clasificar en discretas, si pueda tomar un nmero finito o infinito numerable de valores o continuas si dado un intervalo (a,b) la variable puede tomar todos los valores comprendidos entre a y b.

VARIABLE ALEATORIA DISCRETA


Dada una variable aleatoria diremos que es discreta si toma un nmero finito o infinito numerable de valores. Ejemplos: 1. Sea el experimento consistente en lanzar dos dados al aire. El conjunto de posibles resultados, esto es, el espacio muestral est formado p or S = { (i ,, j) : i=1,2,...,6 j=1,2,...,6 }. Definimos la variable aleatoria X como la suma de las puntuaciones de los dos dados. La variable as definida asocia a cada elemento de S un nmero real , X(i,j) = i+j. Claramente la variable aleatoria as definida es discreta al tomar un nmero finito de valores, en concreto los naturales comprendidos entre 2 y 36, ambos inclusive

FUNCION PROBABILIDAD
Dada una v.a. discreta X llamaremos funcin de probabilidad a aquella que asocia una probabilidad a cada valor de la v.a. P[ X = xi ] As si la v.a. X toma los valores x1,...,xi,...,xn la funcin de probabilidad asociada a cada xi una probabilida pi, verificndose siempre que pi = 1 Determinacin de una funcin de probabilidad Consideremos el experimento que consiste en lanzar tres monedas al aire. Llamaremos C a Cara y X a Cruz, el espacio muestral ser: = {CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX} Definimos la variable aleatoria (v.a.) X como el nmero de caras, pueden salir 0, 1, 2 o 3

DISTRIBUCION DISCRETA
A) DISTRIBUCIN UNIFORME DISCRETA Un experimento se dice que sigue una distribucin uniforme si presenta n resultados distintos, todos ellos equiprobables y tal que la probabilidad de cada resultado viene dada mediante la siguiente funcin de probabilidad: Propiedades. Toda variable aleatoria discreta que sigue una ley uniforme tiene como caractersticas: La media es . La varianza es . Ejemplos: El lanzamiento de un dado. El lanzamiento de un tetraedro regular

DISTRIBUCION CONTINUA
DISTRIBUCIN UNIFORME CONTINUA Se dice que una variable aleatoria sigue una distribucin uniforme si la funcin de densidad es constante en el intervalo en el que se encuentran todos los valores de la variable. La funcin de densidad o ley de probabilidad viene dada por: Propiedades. Toda variable aleatoria continua que sigue una ley de distribucin uniforme tiene como caractersticas: La media es La varianza es

DISTRIBUCIN NORMAL
Se dice que una variable aleatoria continua X sigue una distribucin normal de media y desviacin tpica y se designa por N(, ) si se cumplen las siguientes condiciones: a) La variable recorre Toda la recta real b) La funcin de densida es:

ecuacin matemtica de la curva de Gauss, donde: = media de X = desviacin tpica de X x = abscisa e = base de los logaritmos neperianos = relacin entre la longitud y el dimetro de una circunferencia A la vista de la grfica de la distribucin normal, la funcin de densidad tiene las siguientes propiedades:

La curva tiene forma de campana y es simtrica respecto a la recta x=u El mximo se obtiene para .x=u El rea del recinto que determina la curva con el eje X es 1 por ser una funcin de densidad y esta rea queda dividida en 2 partes iguales por la recta x=u. En y la curva tiene puntos de inflexin. En caso de tener 2 distribuciones con igual desviacin y distintas medias, la nica diferencia es que una ser una traslacin respecto del eje X de la otra. En caso de tener 2 distribuciones con iguales medias y distintas desviaciones tpicas, ser ms achatada aquella con la desviacin tpica mayor. Una distribucin normal reducida es aquella en la que y , siendo la funcin de densidad

Para facilitar el clculo de p[X<x] sin usar integrales, se han elaborado unas tablas de muy fcil uso como veremos. A partir de las tablas de la distribucin N(0,1) podemos calcular probabilidades para las distribuciones N(, , ) mediante la tipificacin de la variable. Basta hacer el cambio de variable ,de manera que si la variable Z sigue una distribucin N(0,1), la variable X sigue una distribucin N(, ).

DISTRIBUCION LOG_NORMAL
En probabilidadey estatsticas, una distribucin lognormal es una distribucin de probabilidades de cualalquier variable aleatoria con su logaritmo normalmente distribuido. Se X una variable aleatoria con una distribucin normal, entnces exp(X) tiene una distribucin log-normal. "Log-normal" tambin se escribe "log normal" o "lognormal". Una variable pode ser modelada como log-normal se puede ser considerada como un produto multiplicativo de modos pequenos factores independientes

FUNCION LOG_NORMAL

Das könnte Ihnen auch gefallen