Sie sind auf Seite 1von 9

UNIVERSIDAD ABIERTA PARA ADULTOS

FACULTAD:

Escuela de Negocios.

CARRERA:

Administración de Empresas.

ASIGNATURA

Estadística II

TEMA:

Introducción a las Probabilidades

PARTICIPANTE:

Martha Ysabel Mercado M.

MATRICULA:

17-0520

FACILITADOR:

Lic. Juan Martínez Ceballos.

19 de mayo de 2019.
1.1 Concepto e Importancia de las probabilidades.
Son medidas numéricas de las posibilidades de que ocurra un evento.
En cuanto a la importancia, radica en que, mediante este recurso
matemático, es posible ajustar de la manera más exacta posible, los
imponderables debidos al azar en los más variados campos tanto de la
ciencia como de la vida cotidiana.

1.2 Enfoques de probabilidades.

Enfoque clásico, a priori o de Laplace


Este enfoque define la probabilidad como un número, determinado de la
siguiente forma: P(A)= (n(A))/(n(S))

Dónde:
S = Cardinal del espacio maestral S del experimento.
N(A) = Cardinal del evento A.
La aplicación de este enfoque supone las siguientes condiciones:

Trabaja con espacios muéstrales finitos.

Los puntos de S deben ser igualmente importantes, esto es, igual peso
específico.

Enfoque empírico, frecuencia o a posteriori


El enfoque empírico utiliza la frecuencia relativa como una aproximación al
valor de la probabilidad de un evento, esto se refiere a un valor empírico de la
probabilidad de ocurrencia del evento, la cual es un valor teórico resultante de
un cálculo matemático.

Es conveniente por lo tanto tener, presente el concepto de frecuencia, como la


cantidad de veces que ocurre un evento en un determinado periodo. Ahora
bien, las frecuencias pueden ser absolutas o relativas:

Frecuencia absoluta: Es el número de veces que se presenta un evento


determinado en un experimento.
Frecuencia relativa: Es la fracción o porción de veces que se presenta un
evento determinado en un experimento.
La frecuencia relativa para un evento A esta dada por:

fA: (frecuencia absoluta)/(número de ejecuciones del experimento)= (Número


de veces que ocurre A)/(Numero de ensayos)
fA: nA/n
P(A) = lim(n->inf)nA/n
Come se puede observar en la expresión anterior, la frecuencia relativa tiende
a la probabilidad de ocurrencia del evento en el límite, es decir cuando el
experimento se ejecuta un gran número de veces.

Enfoque matemático, axiomático o de Kolmogorov.


Este enfoque se presenta por medio de tres axiomas, los cuales son la
fundamentación d toda la teoría de probabilidad.

Axioma 1: 0 < = P(A) < = 1


Esto indica que la probabilidad de ocurrencia de un evento es un número, el
cual debe oscilar siempre entre 0 y 1, sin contradecir la definición dada por
Laplace en el enfoque clásico.

El extremo superior representa la certeza absoluta de la no ocurrencia del


evento, mientras que el inferior representa la certeza absoluta de la no
ocurrencia del evento. Cualquier otro valor entre 0 y 1 indica incertidumbre
acerca de la ocurrencia del evento.

Axioma 2:

P(S) = 1 P( ø ) = 0

P(S) representa la probabilidad de ocurrencia de algún resultado cuando se


realiza un experimento aleatorio, y de acuerdo con el axioma 1, esta
probabilidad debe ser 1. En consecuencia, la probabilidad del evento vacío
debe ser 0.
Axioma 3: Si A y B son eventos mutuamente excluyentes, entonces la
probabilidad de su unión es la suma de sus probabilidades individuales.
P(A U B) = P(A) + P(B)

La expresión anterior es generalizable a más de dos eventos, así:

P(A1 U A2 U A3 U … U An ) = P(A1) + P(A2) + P(A3) + … + P(An)

1.3 Sucesos y su clasificación, relación entre sucesos.


En el contexto probabilístico, denominamos suceso a cualquier subconjunto de
un espacio muestral; esto es, a cualquier posible resultado de un experimento
aleatorio.

Suceso elemental
Un suceso se dice que es un suceso elemental si está formado por un único
elemento del espacio muestral. Por ejemplo, al tirar un dado el suceso
consistente en obtener un cinco.

Suceso compuesto
Un suceso se dice que es un suceso compuesto si está formado por más de
un elemento del espacio muestral. En el mismo ejemplo anterior obtener un
número par, es decir, que salga un 2 o un 4 o un 6.

Estos se clasifican en:

Suceso seguro
El suceso seguro es aquél que está formado por todos los resultados
posibles del espacio muestral (E), es decir aquél que se cumple siempre.
Por ejemplo al tirar un dado cúbico obtener un número del uno al seis.

Suceso imposible
El suceso imposible es aquél que no ocurre nunca. Se expresa con el
símbolo Ø. Por ejemplo, obtener un ocho al tirar un dado cúbico.
Suceso contrario o complementario de otro suceso
Se define el suceso contrario a A como el suceso que acontece cuando no
ocurre A. EL suceso contrario a obtener un número par es obtener uno
impar.

1.4 Eventos, clasificación y sus probabilidades.


Un evento es una colección de puntos muestrales, los cuales se clasifican
en:

Evento cierto.- Un evento es cierto o seguro si se realiza siempre. Ejemplo: Al


introducirnos en el mar, en condiciones normales, es seguro que nos
mojaremos.

Evento imposible.- Un evento es imposible si nunca se realiza. Al lanzar un


dado una sola vez, es imposible que salga un 10

Evento probable o aleatorio.- Un evento es aleatorio si no se puede precisar


de antemano el resultado.

En cuanto a sus probabilidades, están las siguientes:

Probabilidad empírica.- Si E es un evento que puede ocurrir cuando se realiza


un experimento, entonces la probabilidad empírica del evento E, que a veces

se le denomina definición de frecuencia relativa de la probabilidad.

Probabilidad teórica.- Si todos los resultados en un espacio muestral S finito


son igualmente probables, y E es un evento en ese espacio muestral, entonces
la probabilidad teórica del evento E está dada por la siguiente fórmula, que a
veces se le denomina la definición clásica de la probabilidad, expuesta por
Pierre Laplace en su famosa Teoría analítica de la probabilidad publicada en
1812.
1.5 Espacio Muestral.
Es el conjunto de todos los resultados posibles que se obtienen al realizar
un experimento aleatorio (aquel del que no se puede predecir su resultado).
La denotación más habitual del espacio muestral es mediante la letra griega
omega: Ω.

1.6 Experimento, técnicas de conteo y asignación de probabilidades:


Multiplicación, combinaciones y permutaciones.
En el estudio de la probabilidad, definimos un experimento como un proceso
que genera resultados bien definidos. En cualquier repetición siempre de un
experimento, ocurrirá uno y solo uno de los posibles resultados
experimentales. A continuación vemos algunos ejemplos de experimentos y
sus resultados.

Reglas de conteo, combinaciones, permutaciones

Es un paso necesario en la asignación de probabilidades es poder identificar y


contar los resultados experimentales.

Regla de conteo para experimentos de etapas múltiples


Si un experimento se puede describir como una sucesión de K etapas, en las
que hay n1 resultados posibles de la primera etapa, n2 en la segunda, etc.., la
cantidad total de resultados experimentales es igual a (n1),(n2)......(nK).
Si el experimento de lanzar dos monedas se considera como una sucesión de
primero lanzar una moneda (n1=2) y luego lanzar la otra (n2=2), podemos
inferir de la regla de conteo que hay (2)(2)=4 resultados experimentales
distintos. Como se observa, hay S={(H,H),(H,T),(T,H),(T,T)}. El número de
resultados experimentales en un experimento que consiste en el lanzamiento d
seis monedas es (2)(2)(2)(2)(2)(2)=64

Combinaciones
Una segunda regla de conteo que con frecuencia es de utilidad, permite contar
la cantidad de resultados experimentales cuando en un experimento se deben
seleccionar r objetos entre un conjunto de n objetos (por lo común más
grande). Se llama regla de conteo para combinaciones. El orden de los objetos
seleccionados no es importante en el orden.

Regla de conteo para combinaciones


La cantidad de combinaciones de n objetos tomados r a la vez es

1.7 Relaciones básicas de probabilidad:

Complemento de un evento.
Si el evento A es un subconjunto de un espacio muestral S, el complemento de
A contiene los elementos de S que no son miembros de A . El símbolo para el
complemento de un evento es A.

Ley de adición.
Establece que si dos eventos A y B son mutuamente excluyentes la
probabilidad de que uno u otro evento ocurran es igual a la suma de sus
probabilidades.

1.8 Probabilidad condicional:

Eventos independientes.
Dos eventos son independientes si el resultado del segundo evento no es
afectado por el resultado del primer evento. Si A y B son eventos
independientes, la probabilidad de que ambos eventos ocurran es el producto
de las probabilidades de los eventos individuales.
Ley de multiplicación.
Establece que la probabilidad de ocurrencia de dos o más eventos
estadísticamente independientes es igual al producto de
sus probabilidades individuales.

1.9 Teorema de Bayes: Método tabular y diagrama del árbol.


La regla de Bayes es solo una técnica para calcular probabilidades
condicionales, y como regla de probabilidad es indiscutible así como su validez.
A partir de un conjunto de probabilidades llamadas "a priori" o "sin corregir",
calcula un conjunto de probabilidades "a posteriori" o "corregidas" que no son
más que una modificación de las primeras ante la evidencia de que un
determinado suceso ha ocurrido.

Para aclarar estos conceptos, observemos a continuación la diferencia entre el


planteo de probabilidad condicional realizado hasta este momento y el de
Bayes. Cuando nosotros escribimos:

P(B|A) decimos que esto es la probabilidad de que habiendo ocurrido el suceso


A, ocurra B. Probabilidad condicional.

El planteo que hace la Regla de Bayes es: el suceso B ha ocurrido, cual es la


probabilidad de que provenga de A. Que A sea causa de B. O sea debo hallar
P(A|B).

De una manera más general podemos decir: El evento B ha ocurrido, cual es la


probabilidad de que haya sido generado por el suceso A1, el A2, etc.; causas
posibles y excluyentes entre sí.

Sabemos que:
P(Ai ∩ B)
P(B|Ai ) =
P(Ai )
P(Ai ∩ B)
P(Ai |B) =
P(B)
De lo que se deduce:
P(Ai |B) × P(B) = P(B|Ai ) × P(Ai )
P(B|Ai ) × P(Ai )
P(Ai |B) = … (α)
P(B)
Método del Diagrama:

En algunas oportunidades con el objeto de sintetizar la información, antes de


encarar la resolución de un problema de Bayes, puede convenir la realización
de una gráfica o diagrama como se verá a continuación.

Método del Árbol: P(B|A1 )

P(B´|A1 )

P(A1 ) P(B|A2 )

P(A2 ) P(B´|A2 )
Ω
...

P(B|An )
P(A n )
P(B´|An )

Método Tabular:

Probabilidade
s
Sucesos
Probabilidade Condicionale Probabilidade Probabilidade
s Previas s s Conjuntas s Posteriores
P(A1 ) P(B|A1 ) × P(A1 )
A1 P(A1 ) P(B|A1 )
× P(B|A1 ) P(B)

P(A2 ) P(B|A2 ) × P(A2 )


A2 P(A2 ) P(B|A2 )
× P(B|A2 ) P(B)

P(A3 ) P(B|A3 ) × P(A3 )


A3 P(A3 ) P(B|A3 )
× P(B|A3 ) P(B)
...

...

...

...

...

P(An ) P(B|An ) × P(An )


An P(An ) P(B|An )
× P(B|An ) P(B)

Sumatori
a 1 P(B) 1

Das könnte Ihnen auch gefallen