Sie sind auf Seite 1von 13

Estadística II

Variable Aleatoria

Función que hace corresponder a cada elemento del espacio muestral un número real.

La variable aleatoria se clasifica en discreta y continua.

 Discreta: entre dos valores consecutivos no existe ningún otro elemento del
mismo conjunto. Por ejemplo, lanzamiento de dos monedas, podemos obtener
ninguna, una o dos caras, pero nunca una y media.
 Continua: entre dos números existen infinitos valores.

Variable aleatoria discreta

Función de probabilidad: es una función que asigna a cada elemento del espacio
muestral (E) su valor de probabilidad.

Probabilidad

Desde el punto de vista de la escuela clásica: Cociente entre el número de casos


favorables y el número de casos igualmente posibles.

El problema que se plantea con esta definición es que decir “número de casos
igualmente posibles” es sinónimo de decir “igualmente probables”.

Otra dificultad que presenta es el principio de la igual distribución de la ignorancia,


esto e la equiprobabilidad.

Casos Favorables
Casos Posibles

Orígenes:

 Escuela empirista: Von Mises parte de la premisa de que la probabilidad es el


cociente entre el número de casos favorables y el número total de juegos.
La probabilidad del evento (frecuencia relativa) E es:
m
P( E)
n
Dice que la probabilidad de ese evento se da cuando el límite de n tiende a
infinito (No se puede expresar así, porque no tengo tiempo para tirar infinitas
veces, no tengo tiempo para conocer la probabilidad).
Establece el principio que relaciona la estadística con la probabilidad, la
frecuencia relativa, esto es el cociente entre número de casos favorables sobre
número de eventos. Dice que el límite de ese cociente es la probabilidad. Si n
tiende a infinito se van equilibrando las opciones, por lo que no sirve.
Estadística II

 Escuela subjetivista: la probabilidad está dada por el mayor o menor


conocimiento que se tenga sobre el experimento o evento. De un mismo
evento se pueden hacer varias valoraciones.

 Escuela axiomática: Parte de un conjunto de premisas y axiomas y dice que


dentro de un espacio muestral existen una serie de números, los cuales están
relacionados por los acontecimientos y a esos números les corresponde un
valor numérico (probabilidad).
Tiene dos condiciones:
o El suceso seguro (es seguro que ocurra) vale 1
o El suceso imposible vale 0.

Por lo tanto la probabilidad está comprendida entre 0 y 1.

Los eventos pueden ser simples o compuestos. Un evento compuesto es aquel que se
puede descomponer en eventos simples, dos o más características (ej. sacar un
número par al tirar un dado). Mientras que un evento simple es aquel que no se puede
descomponer en otros eventos, una característica sencilla (ej. sacar 1).

Un evento compuesto está formado por dos eventos simples A y B, la negación de esos
eventos es Á y B́, entonces el número total de casos que se pueden dar es:

´
n=( AB ) + ( A B́ ) + ( B Á ) +( AB)

( AB )+ ( A B́ )
P ( A )=
n

( AB )+( B Á)
P ( A )=
n

Probabilidad simple: también denominada probabilidad marginal, se refiere a la


probabilidad de ocurrencia de un evento simple P(A). Interviene un solo suceso.

Probabilidad conjunta: hace referencia a dos o más sucesos.

Probabilidad objetiva y subjetiva

o Objetiva: se calcula en base a un conocimiento previo o de datos reales.


o Subjetiva: se refiere a probabilidad de ocurrencia asignada a un evento por un
individuo particular.
Estadística II

Probabilidad conjunta

Se refiere a fenómenos que contienen dos o más eventos, como la probabilidad de un


as negro. Un evento conjunto A y B significa que ambos eventos deben ocurrir
simultáneamente.

P(AB)= P(A) * P(B/A)


Probabilidad compuesta, sucesos dependientes.
P(AB) = P(B) * P(A/B)

P(AB)= P(A) * P(B)


Probabilidad compuesta, sucesos independientes
P(AB)= P(B) * P(A)

P(B) = P(B/A) = INDEPENDENCIA


P(B) ≠ P(B/A) = DEPENDECIA

Regla de la adición

P(AUB) = P(A) + P(B) – P(A∩B)

Se usa para encontrar la probabilidad del evento “A o B” considerando la ocurrencia


del evento A o del evento B o de ambos. Consiste en tomar la probabilidad de A y
sumarla a la probabilidad de B, y restarle la intersección de A y B porque ya ha sido
incluída dos veces al calcular la probabilidad de A y de B.

( AB ) + ( A B́ )+ ( B Á ) ±( AB)
P ( AoB ) =
n

Probabilidad total, sucesos compatibles o no excluyentes:


P ( AoB ) =P ( A )+ P ( B )−P ( AB )

Probabilidad total, sucesos incompatibles o excluyentes: P ( AoB ) =P ( A )+ P(B)

Probabilidad condicional

Es la probabilidad de que ocurra B, si previamente ocurrió A. Se simboliza como P(B/A).

Esta probabilidad es igual al cociente entre la probabilidad de la intersección de los


eventos y la probabilidad de aquel que ocurrió primero.

P( A ∩B)
P( B/ A)=
P(A )

Ejemplo: probabilidad de sacar, de un mazo de 40 cartas, una sota si sabemos que


previamente salió oro.
Estadística II

P(A/B)= 1/10.

Aproximación de la binomial a la normal

 Probabilidad del éxito es 0,5 porque la distribución es simétrica (p=0,5).


 Probabilidad del éxito aproximadamente igual a 0,5 (p≅0,5) cuando la muestra
(n) es grande (n≥30).

Regla práctica para saber si la aproximación es buena: n*p≥5

Hay que hacer un ajuste de continuidad para pasar del campo discreto al campo
continuo.

Teorema de Bayes

También llamado probabilidad de las causas, se refiere a la asociación de dos


acontecimientos, cuando ellos están ligados de tal manera que la realización de un
acontecimiento supone la realización de algunas de las posibilidades del segundo.

¿Qué es una distribución probabilística?

Una distribución probabilística es el desarrollo de todos los valores que toma la


variable y su respectiva probabilidad. Las variables pueden ser discretas o continuas.
Por eso hay distribución de variables probabilísticas directas y continuas.

La discreta tiene un número limitado de variables y se mide en número enteros.


Mientras que la continua se puede tomar ¿? Valor de un intervalo. Se mide en número
reales.

Una distribución probabilística varía entre menos infinito y más infinito.

Distribución Binomial

Esquema de Bernulli es la distribución binomial. El esquema binomial es aquel donde


se realizan n pruebas repetidas, con probabilidad constante, donde se desea obtener x
éxito de las n pruebas, por lo tanto va a haber n-x fracasos.

Pero hay que considerar todos los órdenes posibles, entonces la fórmula es la
siguiente:
Estadística II

n!
B ( n; p )= ∗p x∗q n−x
x ! ( n− x ) !

La probabilidad de éxito es p y la de fracaso de q.

Se denomina binomial porque responde término a término al desarrollo del binomio


de Newton.

Características:

 Es una distribución discreta


 La probabilidad es constante, es decir que existen solo dos probables
resultados mutuamente excluyentes que se denominan éxito y fracaso en una
secuencia de n ensayos.
 Los sucesos son dicotómicos e independientes (éxito o fracaso)
 No hay agotamiento de los valores de la muestra o población
 La variable va a tomar siempre n+1 casos posibles porque hay que considerar el
cero

Distribución de Poisson

Es un esquema de pruebas repetidas con probabilidad constante. La distribución de los


valores de la variable es discreta, es decir, esta distribución tiene las mismas
características que la distribución binomial. Se la suele utilizar como límite para n
tendiendo a infinito de una distribución binomial cuando la probabilidad del suceso
favorable es igual o inferior al 5% (n muy grande y o muy chica).

Para recordar, las características de una binomial:

 Discreta
 Sucesos dicotómicos
 Probabilidad constante
 La variable toma n+1 valor posible

Utilizada cuando P<0,05 y n≥50

Se la conoce como “Ley de sucesos raros”, ya que es de difícil ocurrencia (poca


probabilidad). Por ejemplo, que choquen dos aviones en el aire.

En la distribución de Poisson dos sucesos no pueden ocurrir en un mismo intervalo de


tiempo, y representa una característica que no tiene la binomial, la esperanza
2
matemática y la varianza toman el mismo valor E(x) = x σ ( x). La esperanza
matemática es proporcional al tiempo.
Estadística II

Distribución normal o de Gauss

(Media, mediana y modo toman igual valor)

Es una distribución continua, tiene forma de campana y es monótona decreciente para


ambos lados de la media. Es simétrica al eje de ordenadas y asintótica al eje de
abscisas. Toda el área bajo la curva vale “1”. Tiene dos puntos de inflexión: 1 y -1.

Hay infinitas normales generales (la media y la dispersión pueden tomar cualquier
valor), pero hay sólo una normal estándar (la media es “0” y la dispersión es “1”).

Propiedades de la curva normal según Albert:

1- Como es una distribución que modeliza variables aleatorias los valores posibles
de x son todos los reales.
2- La curva es simétrica con respecto a la vertical que pasa por el valor medio
3- Todo el área bajo la curva normal y el eje x es 1
4- Debido a la simetría, las medidas de posición son iguales:
media=mediana=modo.
5- μ−σ y μ+ σ son los puntos donde la curva cambia su concavidad, puntos de
inflexión.

Según el resumen:

 Las dos funciones tienen forma de campana, son simétricas al eje de ordenada
y asintótica al eje de la variable.
 Está definida para todo número real (varía entre menos infinito a más infinito)
 Es una función continua. Es monótona decreciente en su punto central que es
la media, el modo y la mediana (los tres toman el mismo valor).
 Hay infinitas normales generales, pero una sola normal estándar.
 Diferencia entre las funciones: en la estándar la dispersión vale 1 y la media
vale 0.
 Toda el área debajo de la curva normal vale 1.
 Tiene dos puntos de inflexión en el punto -1 y 1.

Teoría de muestras

Tiene su origen cuando no se puede realizar un censo de la variable objeto de estudio,


porque a veces es muy costoso y destructivo, o generalmente desconocemos los
valores que caracterizan una población, cuál es la media y la dispersión de la
población.
Estadística II

Los valores que caracterizan a una muestra se denominan estadísticos, los que
caracterizan a una población parámetros, porque el parámetro es un valor fijo, el
estadístico valor de variable.

Recordando:

 Población: es un relevamiento exhaustivo de la variable en estudio.


 Muestra: es un subconjunto.

Mapa de la teoría de las muestras

La teoría de muestras parte de una población:

POBLACIÓN Todos los individuos o casos de los cuales


queremos obtener una inferencia.

MECANISMO DE Uso inteligente de las leyes del azar.


MUESTREO

MUESTRA Subconjunto de la población

Valores de variable:
ESTADÍSTICOS O  Insesgado
ESTIMADORES  Consistente
 Eficiente
 Suficiente

INFERENCIA

ESTIMACIÓN DECISIÓN

Para llegar de la población a la muestra usamos el mecanismo de muestreo. El


mecanismo de muestreo es el uso inteligente de las leyes del azar, con él obtenemos la
muestra.
Estadística II

Pueden haber varios estadísticos o estimadores, pero nos interesa el que reúna las
cuatro características siguientes:

 Insesgado
 Consistente
 Eficiente
 Suficiente

Si no reúne estas cuatro características NO es un buen estimador.

INSESGADO: Que no tiene sesgo. Un estimador lo es cuando la esperanza matemática


de la distribución en el muestreo del estadístico muestral coincide con el parámetro
poblacional. Es decir, cuando la media de las medias muestrales es igual a la media de
la población.

Para saber si la varianza es insesgada debo calcular las varianzas de todas las muestras.

La media muestral es insesgada, la varianza muestral es un estimador sesgado de la


varianza poblacional. Y la cuasivarianza es insesgada porque es dividida por n-1.

RECORDAR MEDIDAS DE VARIABILIDAD DE ESTADÍSTICA I

Error de muestreo
Es un error controlable, lo controlamos aumentando el tamaño de la muestra.
Después, si se da que (n/N < 5%), se aplica un corrector de población finita, lo que se
hace multiplicando por [(N-n) / (N-1)], este es el error entre el estadístico y el
parámetro.
Fórmula:

Dos maneras de estimar un parámetro:


- Puntual: es un procedimiento matemático que, en base a los elementos
extraídos de la muestra obtenemos un número que estima el parámetro de la
población.
- Por intervalo: es un procedimiento matemático que, en base a la información
contenida en la muestra permite obtener dos valores que estiman al parámetro
poblacional con un grado de confianza asociado.
Estadística II

Hay muestras chicas y grandes:


Muestras grandes:
“Estimación de la media de la población cuando conocemos la dispersión poblacional y
no conocemos el total de la población”.
Fórmula

“Estimación de la meda de la población cuando conocemos la dispersión muestral pero


no conocemos la dispersión poblacional ni el total de la población”.
Fórmula

Proporción en muestras grandes


Estimar la proporción poblacional desconociendo el total de la población.
Fórmula

Test de contraste
Fórmula

Calculo del tamaño de la muestra para poblaciones infinitas


El tamaño de la muestra se utiliza únicamente para estimación (intervalo de confianza)
y decisión (test de hipótesis).
Fórmulas:
Estadística II

Calculo del tamaño de la muestra cuando estimamos una proporción poblacional


Fórmula

Muestras chicas:
T de students: lo utilizamos cuando desconocemos la dispersión de la población y
cuando la muestra es chica.

Se puede estimar la media o la proporción.


De la fórmula de intervalo se desprende que la distancia entre la media muestral y la
media de la población la denominamos precisión asociada a un nivel de confianza.
Fórmula

De ahí se puede calcular el tamaño de la muestra ideal. El tamaño de la muestra ideal


solo se usa para estimar o decidir.

Intervalo de confianza
Decisión Test de hipótesis
Hipótesis: suposición acerca de algo. En estadística, suposición de un parámetro o una
ley probabilística. SIEMPRE lo que se testea es el parámetro, nunca el estimador.
Las hipótesis pueden ser:
 Paramétricas: si tienen parámetro. Pueden ser simples o compuestas.
 Simples: me dan “n” y “p”.
 Compuestas: por ejemplo, me dan “n” pero no “p” y debo ver “p” para
toda las gammas de “p” (puede ser que se dé al revés, que me den “p”
pero no “n”).
 No paramétricas: no tienen parámetro.
Estadística II

Test de hipótesis: conjunto de reglas que en base a la información contenida en la


muestra y con la ayuda que nos brinda la teoría de la probabilidad nos permite aceptar
o rechazar los supuestos considerados de la hipótesis. Siempre lo que se testea es el
parámetro, nunca el estimador.
Se parte de una hipótesis nula que es hipótesis de no cambio, cuando es muy poco
probable que la hipótesis nula sea verdadera surge entonces que otra cosa debe ser
más probable denominada hipótesis alternativa (pero siempre se juzga a la hipótesis
nula, nunca a la alternativa).
La base teórica de la prueba de hipótesis requiere que la hipótesis nula sea
considerada verdadera hasta que las evidencias, como los resultados observados a
partir de los datos de la muestra, indiquen que es falsa. Si la hipótesis alternativa es lo
apuesto a la hipótesis nula, y representa la conclusión a la que se llegaría si hubiera
suficiente evidencia de la información de la muestra para decidir que es improbable
que la hipótesis nula sea verdadera y por lo tanto, rechazarla.
El hecho de no rechazar la hipótesis nula no es prueba de que esta sea verdadera.
Nunca podemos probar que tal hipótesis sea correcta porque estamos basando
nuestra decisión únicamente en la información de la muestra, no de la población
entera.

“La hipótesis nula siempre se refiere a un valor especificado del parámetro de la


población, no a una estadística de muestra”.

Cuando uno decide puede cometer dos errores, se aceptan las hipótesis o se rechazan
en base a errores:
- ERROR DE TIPO 1: consiste en rechazar por falsa la hipótesis nula dado que esta
es válida (error del productor). La probabilidad de cometer este error debe ser
muy baja (nivel de significación).
- ERROR DE TIPO 2: probabilidad de aceptar la hipótesis nula como válida cuando
esta es falsa (error del consumidor).

Son dos probabilidades condicionales.


Estadística II

Cuando vamos a decidir tenemos que tener en cuenta tres aspectos:


- Ley probabilística (que distribución estamos estudiando, si es normal o t de
student).
- Nivel de significación: zona de rechazo. La zona de rechazo se fija en función del
nivel de significación, el signo de desigualdad de la hipótesis alternativa y el
tipo de distribución. Probabilidad de cometer un error de tipo 1.
Las diferencias entre un estadístico y un parámetro puede ser significativa o no.
 Es NO significativa cuando debido al mero mecanismo de muestreo
aleatorio al azar.
 Es significativa cuando va más allá del mero mecanismo de muestreo
aleatorio al azar.
- Signo de desigualdad de la hipótesis alternativa.

Cuando se plantea una hipótesis nula y alternativa:

La hipótesis nula SIEMPRE signo =


La hipótesis alternativa NUNCA signo =.

Nunca podemos hablar de verdadero porque es una muestra. Para ser verdadero se
debe trabajar con la población.

La región de rechazo es el conjunto de valores de la estadística de pruebas que no


tienen posibilidad de presentarse si la hipótesis nula es verdadera.
Primero debemos determinar el valor critico que es aquel que separa la región de
rechazo de la de no rechazo, la determinación de este valor depende del tamaño de la
región de rechazo.
Si la estadística de prueba cae en la región de no rechazo, no se puede rechazar la
hipótesis nula. Si cae en zona de rechazo ésta es rechazada.
Estadística II