Sie sind auf Seite 1von 15

Elemento

Un elemento es cada unidad utilizada para un estudio estadstico. Por ejemplo, el


conjunto de los datos 3, 5, 5, 3, 7, 2, 4, 1 contiene 8 elementos.
Muestra
Es un subconjunto de una poblacin. Las muestras representativas de una poblacin
son tiles ya que facilitan el manejo de los datos. Una muestra es representativa de la
poblacin si al escogerla cada elemento tiene la misma probabilidad de salir o de ser
escogido.
Poblacin vs. Muestra
Poblacin es la totalidad de los elementos del grupo particular que se estudia. Como
por ejemplo, una empresa que est llevando a cabo un estudio a todos los 350
empleados de la empresa. Esto es poblacin ya que se estudiar cada elemento de la
poblacin; en este caso la poblacin es todos los empleados de la empresa, sus 350
empleados. Muestra es una parte de la poblacin seleccionada de forma que puedan
hacerse inferencias de ella con respecto a la poblacin completa. Por ejemplo, la
empresa del ejemplo anterior escoger 100 empleados de los 350 para hacerles un
estudio. Esto es una muestra ya que el total de empleados es 350, se escogi a 100
para hacerse inferencias del resto.

Medidas de Tendencia Central


Las medidas de tendencia central son la media, la mediana y la moda.

Media poblacional
Es la suma de los valores de los elementos dividida por la cantidad de stos. Es
conocida tambin como promedio, o media aritmtica.
La media muestral y la media poblacional se calculan en la misma manera, pero la
notacin abreviada que se emplea es diferente.

Media ponderada
La media ponderada constituye un caso especial de la media aritmtica y se presenta
cuando hay varias observaciones con el mismo valor.

Mediana
Es el valor del elemento intermedio cuando todos los elementos se ordenan.
Frmula de la mediana:
Mediana = X[n/2 +1/2]

La parte de [n/2 + 1/2] representa la posicin.

Donde X es la posicin de los nmeros y n es el nmero de elementos.


Moda
Es el valor que se presenta el mayor nmero de veces.
Ejemplo 1: Buscar la moda de:
5

12

Como la moda es el nmero que ms se repite, la moda es 5.

Medidas de dispersin
Muestran la variabilidad de una distribucin, indicando por medio de un nmero, si las
diferentes puntuaciones de una variable estn muy alejadas de la media. Cuanto mayor
sea ese valor, mayor ser la variabilidad, cuanto menor sea, ms homognea ser a
la media. As se sabe si todos los casos son parecidos o varan mucho entre ellos.
El rango o recorrido estadstico es la diferencia entre el valor mximo y el valor mnimo
en un grupo de nmeros aleatorios. Se le suele simbolizar con R.

Para calcular la variabilidad que una distribucin tiene respecto de su media, se calcula
la media de las desviaciones de las puntuaciones respecto a la media aritmtica. Pero
la suma de las desviaciones es siempre cero, as que se adoptan dos clases de
estrategias para salvar este problema. Una es tomando las desviaciones en valor
absoluto (desviacin media) y otra es tomando las desviaciones al cuadrado (varianza).
Desviacin media
Media aritmtica de los valores absolutos de las desviaciones con respecto a la media
aritmtica.

Varianza y desviacin estndar

Varianza muestral

Desviacin estndar de la muestra


La desviacin estndar de la muestra se utiliza como estimador de la desviacin
estndar de la poblacin. Como se hizo notar, la desviacin estndar de la poblacin es
la raz cuadrada de la varianza de la poblacin.
Asimismo, la desviacin estndar de la muestra es la raz cuadrada de la varianza de la
muestra.

TEORIA DE LA PROBABILIDAD
La probabilidad constituye un importante parmetro en la determinacin de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadstico.

La probabilidad de un evento se denota con la letra p y se expresa en trminos de una


fraccin y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la
probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se denota
con la letra q
Los mtodos para calcular las probabilidades son la regla de la adicin y la regla de
la multiplicacin.

Probabilidad clsica
La probabilidad clsica parte del supuesto de que los resultados de un experimento son
igualmente posibles. De acuerdo con el punto de vista clsico, la probabilidad de un

evento que se est llevando a cabo se calcula dividiendo el nmero de resultados


favorables entre el nmero de posibles resultados.

Probabilidad emprica
La probabilidad emprica o frecuencia relativa es el segundo tipo de probabilidad.
sta se basa en el nmero de veces que ocurre el evento como proporcin del nmero
de intentos conocidos.

Probabilidad subjetiva
Si se cuenta con poca o ninguna experiencia o informacin con la cual sustentar la
probabilidad, es posible aproximarla en forma subjetiva. En esencia, esto significa que
un individuo evala las opiniones e informacin disponibles y enseguida calcula o
asigna la probabilidad. Esta probabilidad se denomina adecuadamente probabilidad
subjetiva.

REGLA DE LA ADICIN DE PROBABILIDADES

i)

REGLA GENERAL PARA EVENTOS NO MUTUAMENTE EXCLUYENTES

Si A y B son dos eventos no mutuamente excluyentes (eventos intersecantes), es decir,


de modo que ocurra A o bien B o ambos a la vez (al mismo tiempo)

ii)

REGLA PARTICULAR O ESPECIAL PARA EVENTOS MUTUAMENTE


EXCLUYENTES

Si A y B son dos eventos mutuamente excluyentes (eventos no intersecantes), es decir,


si la ocurrencia de cualquiera de ellos excluye la del otro, no pueden ocurrir a la vez, o
cuando no tienen ningn punto muestral en comn

REGLA DE LA MULTIPLICACIN DE PROBABILIDADES


i)

REGLA GENERAL PARA EVENTOS DEPENDIENTES

Si A y B son dos eventos dependientes, es decir, si la ocurrencia de A afecta la


probabilidad de ocurrencia de B.

ii)

REGLA PARTICULAR O ESPECIAL PARA EVENTOS INDEPENDIENTES

Si A y B son dos eventos independientes, es decir, si el conocimiento de la incidencia


de uno de ellos no tiene efecto en la probabilidad de ocurrencia del otro.

PROBABILIDAD TOTAL Y TEOREMA DE BAYES

A) PROBABILIDAD TOTAL

B) TEOREMA DE BAYES

El teorema de Bayes se utiliza para revisar probabilidades previamente calculadas


cuando se posee nueva informacin.
Comnmente se inicia un anlisis de probabilidades con una asignacin inicial,
probabilidad a priori. Cuando se tiene alguna informacin adicional se procede a
calcular las probabilidades revisadas o a posteriori. El teorema de Bayes permite
calcular las probabilidades a posteriori.

Frmula de las combinaciones


Si el orden de los objetos seleccionados no es importante, cualquier seleccin se
denomina combinacin. La frmula para contar el nmero de r combinaciones de
objetos de un conjunto de n objetos es:

Mtodos de muestreo
Una muestra es una porcin o parte de la poblacin de inters. En muchos casos, el
muestreo resulta ms accesible que el estudio de toda la poblacin. En esta seccin se
explican las razones principales para muestrear y, enseguida, diversos mtodos para
elegir una muestra.

Error de muestreo
Diferencia entre el estadstico de una muestra y el parmetro de la poblacin
correspondiente.

TEOREMA DEL LMITE CENTRAL


Si todas las muestras de un tamao en particular se seleccionan de cualquier
poblacin, la distribucin muestral de la media se aproxima a una distribucin normal.
Esta aproximacin mejora con muestras ms grandes.

Estimadores puntuales e intervalos de confianza de una


media
El anlisis de los estimadores puntuales y los intervalos de confianza comienza con el
estudio del clculo de la media poblacional. Se deben considerar dos casos:
- Se conoce la desviacin estndar de la poblacin ().
- Se desconoce la desviacin estndar de la poblacin (). En este caso se
sustituye la desviacin estndar de la muestra (s) por la desviacin estndar de
la poblacin ().

Estimador puntual.
La estimacin de parmetros tiene por finalidad asignar valores a los parmetros
poblacionales a partir de los estadsticos obtenidos en las muestras. Dicho de otra
manera, la finalidad de la estimacin de parmetros es caracterizar las poblaciones a
partir de la informacin de las muestras (por ejemplo, inferir el valor de la Media de la
poblacin a partir de los datos de la muestra).

Nivel de confianza
El nivel de confianza indica qu tan probable es que el parmetro de poblacin, como
por ejemplo la media, est dentro del intervalo de confianza.
El nivel de confianza representa el porcentaje de intervalos que incluiran el parmetro
de poblacin si usted tomara muestras de la misma poblacin una y otra vez. Por lo
tanto, si usted recogi cien muestras y cre cien intervalos de confianza de 95%, cabra
esperar que aproximadamente 95 de los intervalos incluyeran el parmetro de
poblacin.

Prueba de Hiptesis de una muestra


Qu es una hiptesis?
Es una proposicin o supuesto sobre los parmetros de una o ms poblaciones. Es
importante recordar que las hiptesis siempre son proposiciones sobre la poblacin o
distribucin bajo estudio, no proposiciones sobre la muestra.
Qu es la prueba de hiptesis?

Una prueba de hiptesis es una prueba estadstica que se utiliza para determinar si
existe suficiente evidencia en una muestra de datos para inferir que cierta condicin es
vlida para toda la poblacin.

Paso 1: Se establece la hiptesis nula (H0) y la hiptesis alternativa (H1)


El primer paso consiste en establecer la hiptesis por probar. Esta recibe el nombre de
hiptesis nula, la cual se designa H0, y se lee H subndice cero. La letra mayscula
H representa la hiptesis, y el subndice cero implica que no hay diferencia.
Normalmente se incluye un trmino no en la hiptesis nula, que significa que no hay
cambio.
Paso 2: Se selecciona un nivel de significancia
El nivel de significancia se expresa con la letra griega alfa, . En ocasiones tambin se
conoce como nivel de riesgo. Este quiz sea un trmino ms adecuado porque se trata
del riesgo que se corre al rechazar la hiptesis nula cuando es verdadera.
No existe ningn nivel de significancia que se aplique a todas las pruebas. Se toma la
decisin de utilizar el nivel de 0.05 (expresado con frecuencia como nivel de 5%), nivel
de 0.01, nivel de 0.10 o cualquier otro nivel entre 0 y 1. Se acostumbra elegir el nivel de
0.05 para los proyectos de investigacin relacionados con los consumidores; el nivel de
0.01 en relacin con el control de calidad, y el de 0.10 para las encuestas polticas.
Paso 3: Se selecciona el estadstico de prueba

Paso 4: Se formula la regla de decisin


Una regla de decisin es una afirmacin sobre las condiciones especficas en que se
rechaza la hiptesis nula y aquellas en las que no se rechaza. La regin o rea de
rechazo define la ubicacin de todos esos valores que son tan grandes o tan pequeos
que la probabilidad de que ocurran en una hiptesis nula verdadera es muy remota.

Paso 5: Se toma una decisin

Consiste en calcular el estadstico de la prueba, comparndola con el valor crtico, y


tomar la decisin de rechazar o no la hiptesis nula.

Errores de tipo I y de tipo II.


Si rechazamos una hiptesis cuando debiera ser aceptada, diremos que se ha
cometido un error de tipo I.
Por otra parte, si aceptamos una hiptesis que debiera ser rechazada, diremos que se
cometi un error de tipo II.

Niveles de Significacin.
Al contrastar una cierta hiptesis, la mxima probabilidad con la que estamos
dispuesto a correr el riesgo de cometern error de tipo I, se llama nivel de significacin.

Anlisis de la varianza
Un anlisis de varianza (ANOVA) prueba la hiptesis de que las medias de dos o ms
poblaciones son iguales. Los ANOVA evalan la importancia de uno o ms factores al
comparar las medias de la variable de respuesta en los diferentes niveles de los
factores. La hiptesis nula establece que todas las medias de la poblacin (medias de
los niveles de los factores) son iguales mientras que la hiptesis alternativa establece
que al menos una es diferente.

La distribucin F
Caractersticas de la distribucin F
1. Existe una familia de distribuciones F. Un miembro particular de la familia se
determina mediante dos parmetros: los grados de libertad en el numerador y
los grados de libertad en el denominador.
2. La distribucin F es continua. Esto significa que se supone un nmero infinito
de valores entre cero y el infinito positivo.
3. La distribucin F no puede ser negativa. El valor menor que F puede tomar es
0.

4. Tiene sesgo positivo. La cola larga de la distribucin es hacia el lado derecho.


Cuando el nmero de grados de libertad aumenta, tanto en el numerador como
en el denominador, la distribucin se aproxima a ser normal.
5. Es asinttica. Cuando los valores de X aumentan, la curva F se aproxima al
eje X pero nunca lo toca

Grados de libertad
De un conjunto de observaciones, los grados de libertad estn dados por el nmero de
valores que pueden ser asignados de forma arbitraria, antes de que el resto de las
variables tomen un valor automticamente, producto de establecerse las que son
libres, esto, con el fin de compensar e igualar un resultado el cual se ha conocido
previamente. Se encuentran mediante la frmula n-r donde nmero de sujetos en la
muestra que pueden tomar un valor y es el nmero de sujetos cuyo valor depender
del que tomen los miembros de la muestra que son libres. Tambin pueden ser
representados por , donde nmero de grupos, esto, cuando se realizan operaciones
con grupos y no con sujetos individuales.
Otro uso de la distribucin F es el anlisis de la tcnica de la varianza (ANOVA), en la
cual se comparan tres o ms medias poblacionales para determinar si pueden ser
iguales.
Para emplear ANOVA, se supone lo siguiente:
1. Las poblaciones siguen la distribucin normal.
2. Las poblaciones tienen desviaciones estndar iguales ().
3. Las poblaciones son independientes.
Cuando se cumplen estas condiciones, F se emplea como la distribucin del estadstico
de prueba.
La estrategia es estimar la varianza de la poblacin (desviacin estndar al cuadrado)
de dos formas y despus determinar la razn de dichos estimados. Si esta razn es
aproximadamente 1, entonces por lgica los dos estimados son iguales, y se concluye
que las medias poblacionales no son iguales. La distribucin F sirve como un rbitro al
indicar en que instancia la razn de las varianzas muestrales es mucho mayor que 1
para haber ocurrido por casualidad.

Regresin lineal y correlacin


Regresin lineal
Es una tcnica que permite cuantificar la relacin que puede ser observada cuando se
grafica un diagrama de puntos dispersos correspondientes a dos variables, cuya
tendencia general es rectilnea.

En esta ecuacin, y representa los valores de la coordenada a lo largo del eje vertical
en el grfico (ordenada); en tanto que x indica la magnitud de la coordenada sobre el
eje horizontal (absisa). El valor de a (que puede ser negativo, positivo o igual a cero)
es llamado el intercepto; en tanto que el valor de b (el cual puede ser negativo o
positivo) se denomina la pendiente o coeficiente de regresin.

Anlisis de correlacin
La idea bsica del anlisis de correlacin es reportar la asociacin entre dos variables.
El primer paso habitual es trazar los datos en un diagrama de dispersin.

Este es expresado por un nico valor llamado coeficiente de correlacin (r), el cual
puede tener valores que oscilan entre -1 y +1. Cuando r es negativo, ello significa que
una variable (ya sea x o y) tiende a decrecer cuando la otra aumenta (se trata
entonces de una correlacin negativa, correspondiente a un valor negativo de b en
el anlisis de regresin). Cuando r es positivo, en cambio, esto significa que una
variable se incrementa al hacerse mayor la otra (lo cual corresponde a un valor positivo
de b en el anlisis de regresin).

Coeficiente de correlacin
Describe la fuerza de la relacin entre dos conjuntos de variables en escala de
intervalo o de razn.
Se designa con la letra r, y con frecuencia se le conoce como r de Pearson y
coeficiente de correlacin producto-momento. Puede adoptar cualquier valor de 1.00
a +1.00, inclusive. Un coeficiente de correlacin de 1.00 o bien de +1.00 indica una
correlacin perfecta.

El coeficiente de determinacin

Proporcin de la variacin total en la variable dependiente Y que se explica, o


contabiliza, por la variacin en la variable dependiente X.

Correlacin y causa
Si hay una relacin fuerte (sea 0.91) entre dos variables, es factible suponer que un
aumento o una disminucin en una variable causa un cambio en la otra variable.
Se puede concluir cuando se tienen dos variables con fuerte correlacin es que hay
una relacin o asociacin entre ambas variables, no que un cambio en una ocasiona un
cambio en la otra.

Das könnte Ihnen auch gefallen