Sie sind auf Seite 1von 5

Probabilidades

Se entiende por probabilidad el grado de posibilidad de ocurrencia de un determinado


acontecimiento. Dicha probabilidad puede calcularse en forma teórica o empírica, a partir de
las llamadas probabilidad clásica y frecuencial, respectivamente. El concepto de probabilidad
ha demostrado ser de importante utilidad en ciertos enfoques sistémicos, especialmente en
los ámbitos de la termodinámica y la teoría de la información.

La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción


y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la probabilidad de
que un evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q

P(Q)=1-P(E)

Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación y la distribución binomial.

Regla de la adición.

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de


cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que
los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo
tiempo.

P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyentes. P(A o B) = P(A) + P(B)
− P(A y B) si A y B son no excluyentes.

Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del
evento B. P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

Regla de la multiplicación.

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos


estadísticamente independientes es igual al producto de sus probabilidades individuales.

P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.

P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.

Siendo P (B|A) la probabilidad de que ocurra B habiéndose dado o verificado el evento A.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno después del otro para ver si ellos son defectuosos. Suponga que dos objetos
son seleccionados sin reemplazo (significa que el objeto que se selecciona al azar se deja por
fuera del lote). ¿Cuál es la probabilidad de que los dos objetos seleccionados sean
defectuosos?

Sea los eventos

A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}

Entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento A1∩ A2 que
es la intersección entre los eventos A1 y A2. De la información dada se tiene que:

P (A1) = 20/100 ; P (A2/A1) = 19/99

así probabilidad de que los dos objetos seleccionados sean defectuosos es


P (A1 ∩ A2) = P (A1) P (A2/A1)

(20/100)(19/99)

19/495 = 0.038

Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres
objetos seleccionados sean defectuosos es

P (A1 ∩ A2 ∩ A3) = P (A1) P (A2/A1) P (A3/A1∩A2)

(20/100)(19/99)(18/98)

19/2695 = 0.007

Regla de Laplace

La Regla de Laplace establece que:

 La probabilidad de ocurrencia de un suceso imposible es 0.


 La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.
 Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos
equiprobables, es decir, que todos tengan o posean la misma probabilidad.
 La probabilidad de que ocurra un suceso se calcula así:
 P(A) = Nº de casos favorables / Nº de resultados posibles

Esto significa que: la probabilidad del evento A es igual al cociente del número de casos
favorables (los casos dónde sucede A) sobre el total de casos posibles.

Distribución binomial.

La probabilidad de ocurrencia de una combinación específica de eventos independientes y


mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay
solo dos posibilidades, tales como masculino/femenino o si/no.

 Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observación.


 La serie de ensayos u observaciones constituyen eventos independientes.
 La probabilidad de éxito permanece constante de ensayo a ensayo, es decir el proceso
es estacionario.

Para aplicar esta distribución al cálculo de la probabilidad de obtener un número dado de


éxitos en una serie de experimentos en un proceso de Bermnoulli, se requieren tres valores: el
número designado de éxitos (m), el número de ensayos y observaciones (n); y la probabilidad
de éxito en cada ensayo (p).

Entonces la probabilidad de que ocurran m éxitos en un experimento de n ensayos es:

P (x = m) = (nCm)(Pm)(1−P)n−m

Siendo: nCm el número total de combinaciones posibles de m elementos en un conjunto de n


elementos.

En otras palabras P(x = m) = [n!/(m!(n−m)!)](pm)(1−p)n−m

Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la certeza;
el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso 'obtener un
2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad. Es habitual
representar el grado de probabilidad mediante un número que puede variar entre 1 (certeza) y
0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc. Por ejemplo, una
probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una probabilidad
intermedia es 0.50 o también, si la expresamos en términos de porcentajes corriendo la coma
dos lugares hacia la derecha, obtenemos una probabilidad del 50 por ciento. Tal el caso de
obtener una cara arrojando una moneda.

Probabilidad clásica y probabilidad frecuencial.- Si bien existen diferentes teorías y enfoques


acerca de la probabilidad, explicaremos a continuación los dos planteos más habituales,
siguiendo un ordenamiento histórico e incluso sistemático: el clásico y el frecuencial. En última
instancia, se trata de dos modos diferentes de calcular la probabilidad de la ocurrencia de un
fenómeno.

a) Probabilidad clásica.- Suele también denominarse probabilidad teórica o a priori, y se define


como el cociente entre el número de casos favorables y el número de casos equiprobables
posibles. Aclaremos esta aparentemente engorrosa definición. Sabemos que un dado tiene
seis caras, numeradas del uno al seis. La probabilidad de obtener la cara tres, por ejemplo, es
de un sexto, es decir de un caso favorable (porque hay una sola cara con el tres) sobre seis
casos equiprobables y posibles (caras 1-2-3-4-5-6). Aplicando la definición de probabilidad, es:
𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 1
𝑃= = 0.1666
𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 6
Para poder calcular esta probabilidad necesitamos, obviamente, conocer todos los casos
posibles (requisito de exhaustividad), pero además debemos saber que todos esos casos
posibles tienen la misma probabilidad de salir (requisito de equiprobabilidad), vale decir,
debemos tener la suficiente seguridad de que ninguna cara tendrá mayor o menor
probabilidad de salir que otra cara cualquiera, como puede ocurrir, por ejemplo, con los dados
'cargados'. Una aclaración respecto de la expresión 'casos favorables'. Debemos evitar aqui la
connotación subjetiva del término. Un caso favorable es simplemente un caso del cual
queremos conocer la probabilidad de su ocurrencia. Puede incluso tratarse de un terremoto o
una enfermedad, aunque estos eventos no sean 'favorables' desde otro punto de vista más
subjetivo.

Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado de
que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos de
exhaustividad y equiprobabilidad. Puede suceder, en efecto, que alguno de estos requisitos no
se cumpla. 1) Exhaustividad: Este requisito puede no cumplirse en dos casos. Primero, puede
ocurrir que al arrojar un dado, este quede parado en equilibrio sobre alguno de sus vértices o
aristas. Como posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy
baja, a los efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de
probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente
seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación
anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando
sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el
número de casos posibles, la definición clásica de probabilidad resulta inaplicable,
quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este
requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el
tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la
probabilidad mediante la probabilidad frecuencial. En síntesis hasta aquí: cuando ninguno de
estos requisitos, o ambos, no pueden cumplirse, nos queda aún la opción de calcular la
probabilidad en forma empírica, lo que nos lleva al tema de la llamada probabilidad
frecuencial.

b) Probabilidad frecuencial.- Suele también denominarse probabilidad empírica o a posteriori,


y es definible como el cociente entre el números de casos favorables y el número de casos
observados. En un ejemplo, supongamos que no conocemos cuántas caras tiene un dado (es
decir desconocemos la cantidad de casos posibles), y queremos averiguar qué probabilidad
tiene de salir el uno. Obviamente no podemos decir 'un sexto' o 'uno sobre seis' porque no
sabemos cuántas caras tiene el dado. Para hacer este cálculo decidimos hacer un experimento,
y arrojamos un dado común de seis caras (aunque nosotros ignoramos este detalle) por
ejemplo diez veces, constatando que el uno salió cinco veces, cosa perfectamente posible.
Concluímos entonces que la probabilidad de obtener un uno es de cinco sobre diez, es decir,
de 0.5. Si tomamos al pie de la letra este valor, podríamos concluír que el dado tiene... ¡2
caras!, cada una con la misma probabilidad de 0.5. Aplicando la definición de probabilidad
frecuencial, resulta:
𝐶𝑎𝑠𝑜𝑠 𝐹𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 5
𝑃= = 0.5
𝐶𝑎𝑠𝑜𝑠𝑜 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑜𝑠 10
c) La ley de los grandes números.- También llamada principio de la estabilidad de la frecuencia
relativa, nos permite unificar conceptualmente los dos tipos de probabilidad recién
examinados, y puede expresarse de la siguiente manera: a medida que aumenta la cantidad de
ensayos, el valor de la probabilidad empírica obtenido se va aproximando cada vez más al
valor de la probabilidad teórica.

Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la
probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa
experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la
probabilidad empírica es 0, pues no salió ninguna cara. Al arrojar la moneda por segunda vez,
la probabilidad teórica sigue siendo 0.5, ya que el dado no tiene 'memoria': por más que haya
salido cien veces cara, la 101° vez sigue teniendo la misma probabilidad de salir cara. La
probabilidad empírica, en cambio, nos da por ejemplo también 0.5, porque la primera vez no
salió cara pero la segunda sí, con lo cual habrá salido cara la mitad de las veces, o sea hay una
probabilidad de 0.5. Al tercer tiro vuelve a aparecer ceca, con lo cual sobre tres tiros habrá
salido sólo una cara (la segunda vez), y entonces la probabilidad empírica es de un tercio
(0.333). Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad
de tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad
teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en
dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la frecuencia
relativa.

Axiomas
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una
función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Fueron formulados por Kolmogórov en 1933.

Axioma 1: La probabilidad “S” es positiva y menor o igual que 1.

0 ≤ p(S) ≤ 1

Ejemplo: La probabilidad de sacar par en un dado equilibrado es 0,5. P(A)=0,5

Axioma 2: La probabilidad del evento seguro “S” es igual a 1, denotado simbólicamente,

P(S)=1

Ejemplo: La probabilidad de sacar un número del 1 al 6 en un dado equilibrado es "1".

Axioma 3: SI E1, E2,….. Son eventos mutuamente excluyentes (incompatibles dos a dos),
entonces:

Ejemplo: La probabilidad de sacar en un dado "as" o sacar "número par" es la suma de las
probabilidades individuales de dichos sucesos.

Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias


alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.

Si se tienen n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces;

𝑝(𝐴1𝐸𝐴2𝐸 … … . 𝐸𝐴𝑛) = 𝑝(𝐴1) + 𝑝(𝐴2) + ⋯ … . . +𝑝(𝐴𝑛)


Para el experimento aleatorio de tirar un dado, el espacio muestra es W = {1, 2, 3, 4, 5, 6}. En
este espacio el conjunto de sucesos es P(W) = {Æ, {1}, {2}, ...{1,2}, {1,3}, ...{1,2,3,4,5,6}}. Para
establecer una probabilidad hay que asignar un número a todos esos sucesos.

Sin embargo si se ha asignado a los sucesos elementales p({1})= p({2})= ...= p({6})= 1/6, por la
propiedad ii), p.e. la probabilidad del suceso {1, 3} es p({1,3})= p({1})+ p({3})=2/6.