Sie sind auf Seite 1von 10

Prueba t de Student

En estadstica, una prueba t de Student, prueba t-Student, o Test-T es cualquier prueba en la que el estadstico utilizado tiene una distribucin t de Student si la hiptesis nula es cierta. Se aplica cuando la poblacin estudiada sigue una distribucin normal pero el tamao muestral es demasiado pequeo como para que el estadstico en el que est basada la inferencia est normalmente distribuido, utilizndose una estimacin de la desviacin tpica en lugar del valor real. Es utilizado en analisis discriminante. Clculos Las expresiones explcitas que pueden ser utilizadas para obtener varias pruebas t se dan a continuacin. En cada caso, se muestra la frmula para una prueba estadstica que o bien siga exactamente o aproxime a una distribucin t de Student bajo la hiptesis nula. Adems, se dan los apropiados grados de libertad en cada caso. Cada una de estas estadsticas se pueden utilizar para llevar a cabo ya sea un prueba de una cola o prueba de dos colas. Una vez que se ha determinado un valor t, es posible encontrar un valor P asociado utilizando para ello una tabla de valores de distribucin t de Student. Si el valor P calulado es menor al lmite elegido por significancia estadstica (usualmente a niveles de significancia 0,10; 0,05 o 0,01), entonces la hiptesis nula se rechaza en favor de la hiptesis alternativa.

Prueba t para muestra nica


En esta prueba se evala la hiptesis nula de que la media de la poblacin estudiada es igual a un valor especificado 0, se hace uso del estadstico:

donde es la media muestral, s es la desviacin estndar muestral y n es el tamao de la muestra. Los grados de libertad utilizados en esta prueba se corresponden al valor n 1.

Pendiente de una regresin lineal


Supngase que se est ajustando el modelo:

donde xi, i = 1, ..., n son conocidos, y son desconocidos, y i es el error aleatorio en los residuales que se encuentra normalmente distribuido, con un valor esperado 0 y una varianza desconocida 2, e Yi, i = 1, ..., n son las observaciones. Se desea probar la hiptesis nula de que la pendiente es igual a algn valor especificado 0 (a menudo toma el valor 0, en cuyo caso la hiptesis es que x e y no estn relacionados).

sea

Luego

tiene una distribucin t con n 2 grados de libertad si la hiptesis nula es verdadera. El error estndar de la pendiente:

puede ser reescrito en trminos de los residuales:

Luego

se encuentra dado por:

Prueba t para dos muestras independientes


Iguales tamaos muestrales, iguales varianzas Esta prueba se utiliza slamente cuando:

los dos tamaos muestrales (esto es, el nmero, n, de participantes en cada grupo) son iguales; se puede asumir que las dos distribuciones poseen la misma varianza.

Las violaciones a estos presupuestos se discuten mas abajo. El estadstico t a probar si las medias son diferentes se puede calcular como sigue:

Donde

Aqu es la desviacin estndar combinada, 1 = grupo uno, 2 = grupo 2. El denominador de t es el error estndar de la diferencia entre las dos medias. Por prueba de significancia, los grados de libertad de esta prueba se obtienen como 2n 2 donde n es el nmero de participantes en cada grupo. Diferentes tamaos muestrales, iguales varianzas Esta prueba se puede utilizar nicamente si se puede asumir que las dos distribuciones poseen la misma varianza. (Cuando este presupuesto se viola, mirar mas abajo). El estadstico t si las medias son diferentes puede ser calculado como sigue:

Donde

Ntese que las frmulas de arriba, son generalizaciones del caso que se da cuando ambas muestras poseen igual tamao (sustituyendo n por n1 y n2). es un estimador de la desviacin estndar comn de ambas muestras: esto se define as para que su cuadrado sea un estimador sin sesgo de la varianza comun sea o no la media iguales. En esta frmula, n = nmero de participantes, 1 = grupo uno, 2 = grupo dos. n 1 es el nmero de grados de libertad para cada grupo, y el tamao muestral total menos dos (esto es, n1 + n2 2) es el nmero de grados de libertad utilizados para la prueba de significancia. Diferentes tamaos muestrales, diferentes varianzas Esta prueba es tambin conocida como prueba t de Welch y es utilizada nicamente cuando se puede asumir que las dos varianzas poblacionales son diferentes (los tamaos muestrales pueden o no ser iguales) y por lo tanto deben ser estimadas por separado. El estadstico t a probar cuando las medias poblacionales son distintas puede ser calculado como sigue:

Donde Aqu s2 es el estimador sin sesgo de la varianza de las dos muestras, n = nmero de participantes, 1 = grupo uno, 2 = grupo dos. Ntese que en este caso, no es la varianza combinada. Para su utilizacin en pruebas de significancia, la distribucin de este estadstico es aproximadamente igual a una distribucin t ordinaria con los grados de libertad calculados segn:

Esta ecuacin es llamada la ecuacin WelchSatterthwaite. Ntese que la verdadera distribucin de este estadstico de hecho depende (ligeramente) de dos varianzas desconocidas.

Prueba t dependiente para muestras apareadas


Esta prueba se utiliza cuando las muestras son dependientes; esto es, cuando se trata de una nica muestra que ha sido evaluada dos veces (muestras repetidas) o cuando las dos muestras han sido emparejadas o apareadas. Este es un ejemplo de un test de diferencia apareada.

Para esta ecuacin, la diferencia entre todos los pares tiene que ser calculada. Los pares se han formado ya sea con resultados de una persona antes y despus de la evaluacin o entre pares de personas emparejadas en grupos de significancia (por ejemplo, tomados de la misma familia o grupo de edad: vase la tabla). La media (XD) y la desviacin estndar (sD) de tales diferencias se han utilizado en la ecuacin. La constante 0 es diferente de cero si se desea probar si la media de las diferencias es significativamente diferente de 0. Los grados de libertad utilizados son n 1. Ejemplo de muestras repetidas Nmero Nombre Test 1 Test 2 1 2 3 4 Miguel Melanie Melisa Michell 35% 50% 90% 78% 67% 46% 86% 91% Ejemplo de pares emparejados Par 1 1 2 2 Nombre Juan Joana Jaimito Jesica Edad 35 36 22 21 Test 250 340 460 200

PRUEBAS CHI-CUADRADA
Como ya se ha visto varias veces, los resultados obtenidos de muestras no siempre concuerdan exactamente con los resultados tericos esperados, segn las reglas de probabilidad. Por ejemplo, aunque consideraciones tericas conduzcan a esperar 50 caras y 50 cruces cuando se lanza 100 veces una moneda bien hecha, es raro que se obtengan exactamente estos resultados. Supngase que en una determinada muestra se observan una serie de posibles sucesos E 1, E2, E3, . . . , EK, que ocurren con frecuencias o1, o2, o3, . . ., oK, llamadas frecuencias observadas y que, segn las reglas de probabilidad, se espera que ocurran con frecuencias e 1, e2, e3, . . . ,eK llamadas frecuencias tericas o esperadas. A menudo se desea saber si las frecuencias observadas difieren significativamente de las frecuencias esperadas. Para el caso en que solamente son posibles dos sucesos E 1 y E2 como, por ejemplo, caras o cruces, defectuoso, etc., el problema queda resuelto satisfactoriamente con los mtodos de las unidades anteriores. En esta unidad se considera el problema general. Definicin de X2 Una medida de la discrepancia existente entre las frecuencias observadas y esperadas es suministrada por el estadstico X2, dado por:

donde si el total de frecuencias es N,

Si X2 = 0, las frecuencias observadas y esperadas concuerdan exactamente, mientras que si X2>0, no coinciden exactamente. A valores mayores de X2, mayores son las discrepancias entre las frecuencias observadas y esperadas. Si las frecuencias esperadas son al menos iguales a 5, la aproximacin mejora para valores superiores. El nmero de grados de libertad =k1m en donde: K = nmero de clasificaciones en el problema. m = nmero de parmetros estimados a partir de los datos muestrales para obtener los valores esperados. est dado por:

Ensayo de Hiptesis En la prctica, las frecuencias esperadas se calculan de acuerdo con la hiptesis H o. Si bajo esta hiptesis el valor calculado de X2 dado es mayor que algn valor crtico, se deduce que las frecuencias observadas difieren significativamente de las esperadas y se rechaza Ho al nivel de significacin correspondiente. En caso contrario, no se rechazar. Este procedimiento se llama ensayo o prueba de chi-cuadrado de la hiptesis. Debe advertirse que en aquellas circunstancias en que X2 est muy prxima a cero debe mirarse con cierto recelo, puesto que es raro que las frecuencias observadas concuerden demasiado bien con las esperadas. Para examinar tales situaciones, se puede determinar si el valor calculado de X2 es menor que las X2 crticas o de tabla (ensayo unilateral izquierdo), en cuyos casos se decide que la concordancia es bastante buena. Ejemplos: 1. La siguiente tabla muestra las frecuencias observadas al lanzar un dado 120 veces. Ensayar la hiptesis de que el dado est bien hecho al nivel de significacin del 0.05.
Cara Frecuencia Observada 1 25 2 17 3 15 4 23 5 24 6 16

Solucin: Ensayo de Hiptesis: Ho; Las frecuencias observadas y esperadas son significativamente iguales (dado bien hecho) H1; Las frecuencias observadas y esperadas son diferentes (dado cargado). Primero se procede a calcular los valores esperados. Como es bien sabido por todos la probabilidad de que caiga cualquier nmero en un dado no cargado es de 1/6. Como la suma de los valores observados es de 120, se multiplica este valor por 1/6 dando un resultado de 20 para cada clasificacin.
Cara Frecuencia Observada Frecuencia esperada 1 25 20 2 17 20 3 15 20 4 23 20 5 24 20 6 16 20 Total 120

Grados de libertad = k-1-m = 6-1-0 = 5 No se tuvo que calcular ningn parmetro para obtener las frecuencias esperadas.

Regla de decisin: Si X2R 11.1 no se rechaza Ho.

Si X2R >11.1 se rechaza Ho. Clculos:

Justificacin y decisin: Como 5 es menor a 11.1 no se rechaza Ho y se concluye con una significacin de 0.05 que el dado est bien hecho.

Distribucin binomial
La distribucin binomial es tpica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1) El experimento est compuesto de n pruebas iguales, siendo n un nmero natural fijo. 2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binmica o de Bernouilli, es decir, slo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como xito y fracaso. 3) La probabilidad del xito (o del fracaso) es constante en todas las pruebas. P(xito) = p ; P(fracaso) = 1 - p = q 4) Las pruebas son estadsticamente independientes, En estas condiciones, la variable aleatoria X que cuenta el nmero de xitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los nmeros enteros del 0 al n. Se suele decir que una variable binmica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento. La funcin de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el nmero de pruebas y p la probabilidad del xito. n y p son los parmetros de la distribucin.

La manera ms fcil de calcular de valor de nmeros combinatorios, como los incluidos en la expresin anterior, es utilizando el tringulo de Tartaglia

La media y la varianza de la variable binomial se calculan como: Media = = n p Varianza = 2 = n p q Grficamente el aspecto de la distribucin depende de que sea o no simtrica Por ejemplo, el caso en que n = 4:

Distribucin normal o de Gauss


La distribucin normal fue definida por De Moivre en 1733 y es la distribucin de mayor importancia en el campo de la estadstica. Una variable es normal cuando se ajusta a la ley de los grandes nmeros, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. Las variables normales tienen una funcin de densidad con forma de campana a la que se llama campana de Gauss. Su funcin de densidad es la siguiente:

Los parmetros de la distribucin son la media y la desviacin tpica, y , respectivamente. Como consecuencia, en una variable normal, media y desviacin tpica no deben estar correlacionadas en ningn caso (como desgraciadamente ocurre en la inmensa mayora de las variables aleatorias reales que se asemejan a la normal. La curva normal cumple las siguientes propiedades: 1) 2) 3) El mximo de la curva coincide con la media. Es perfectamente simtrica respecto a la media (g1 = 0). La curva tiene dos puntos de inflexin situados a una desviacin tpica de la media. Es convexa entre ambos puntos de inflexin y cncava en ambas colas.

4)

Sus colas son asintticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habra que integrar la funcin de densidad entre los extremos del intervalo. por desgracia (o por suerte), la funcin de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la nica solucin es referirse a tablas de la funcin de distribucin de la variable (calculadas por integracin numrica) Estas tablas tendran que ser de triple entrada (, , valor) y el asunto tendra una complejidad enorme. Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribucin normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuacin:

La funcin de distribucin de la variable normal tipificada est tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese. De forma anloga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal.

Histograma de una normal idealizada

Histograma de una muestra de una variable normal