Beruflich Dokumente
Kultur Dokumente
P(Q)=1-P(E)
Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación y la distribución binomial.
Regla de la adición.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyentes. P(A o B) = P(A) + P(B)
− P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del
evento B. P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.
Regla de la multiplicación.
Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno después del otro para ver si ellos son defectuosos. Suponga que dos objetos
son seleccionados sin reemplazo (significa que el objeto que se selecciona al azar se deja por
fuera del lote). ¿Cuál es la probabilidad de que los dos objetos seleccionados sean
defectuosos?
Entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento A1∩ A2 que
es la intersección entre los eventos A1 y A2. De la información dada se tiene que:
(20/100)(19/99)
19/495 = 0.038
Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres
objetos seleccionados sean defectuosos es
(20/100)(19/99)(18/98)
19/2695 = 0.007
Regla de Laplace
Esto significa que: la probabilidad del evento A es igual al cociente del número de casos
favorables (los casos dónde sucede A) sobre el total de casos posibles.
Distribución binomial.
P (x = m) = (nCm)(Pm)(1−P)n−m
Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la certeza;
el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso 'obtener un
2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad. Es habitual
representar el grado de probabilidad mediante un número que puede variar entre 1 (certeza) y
0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc. Por ejemplo, una
probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una probabilidad
intermedia es 0.50 o también, si la expresamos en términos de porcentajes corriendo la coma
dos lugares hacia la derecha, obtenemos una probabilidad del 50 por ciento. Tal el caso de
obtener una cara arrojando una moneda.
Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado de
que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos de
exhaustividad y equiprobabilidad. Puede suceder, en efecto, que alguno de estos requisitos no
se cumpla. 1) Exhaustividad: Este requisito puede no cumplirse en dos casos. Primero, puede
ocurrir que al arrojar un dado, este quede parado en equilibrio sobre alguno de sus vértices o
aristas. Como posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy
baja, a los efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de
probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente
seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación
anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando
sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el
número de casos posibles, la definición clásica de probabilidad resulta inaplicable,
quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este
requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el
tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la
probabilidad mediante la probabilidad frecuencial. En síntesis hasta aquí: cuando ninguno de
estos requisitos, o ambos, no pueden cumplirse, nos queda aún la opción de calcular la
probabilidad en forma empírica, lo que nos lleva al tema de la llamada probabilidad
frecuencial.
Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la
probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa
experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la
probabilidad empírica es 0, pues no salió ninguna cara. Al arrojar la moneda por segunda vez,
la probabilidad teórica sigue siendo 0.5, ya que el dado no tiene 'memoria': por más que haya
salido cien veces cara, la 101° vez sigue teniendo la misma probabilidad de salir cara. La
probabilidad empírica, en cambio, nos da por ejemplo también 0.5, porque la primera vez no
salió cara pero la segunda sí, con lo cual habrá salido cara la mitad de las veces, o sea hay una
probabilidad de 0.5. Al tercer tiro vuelve a aparecer ceca, con lo cual sobre tres tiros habrá
salido sólo una cara (la segunda vez), y entonces la probabilidad empírica es de un tercio
(0.333). Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad
de tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad
teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en
dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la frecuencia
relativa.
Axiomas
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una
función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Fueron formulados por Kolmogórov en 1933.
0 ≤ p(S) ≤ 1
P(S)=1
Axioma 3: SI E1, E2,….. Son eventos mutuamente excluyentes (incompatibles dos a dos),
entonces:
Ejemplo: La probabilidad de sacar en un dado "as" o sacar "número par" es la suma de las
probabilidades individuales de dichos sucesos.
Sin embargo si se ha asignado a los sucesos elementales p({1})= p({2})= ...= p({6})= 1/6, por la
propiedad ii), p.e. la probabilidad del suceso {1, 3} es p({1,3})= p({1})+ p({3})=2/6.