Sie sind auf Seite 1von 7

Prueba t de Student

En estadstica, una prueba t de Student, prueba tStudent, o Test-T es cualquier prueba en la que el
estadstico utilizado tiene una distribucin t de Student
si la hiptesis nula es cierta. Se aplica cuando la poblacin estudiada sigue una distribucin normal pero el tamao muestral es demasiado pequeo como para que el
estadstico en el que est basada la inferencia est normalmente distribuido, utilizndose una estimacin de la
desviacin tpica en lugar del valor real. Es utilizado en
anlisis discriminante.

asuncin se deja de lado suelen ser llamados a veces como Prueba t de Welch. Estas pruebas suelen
ser comnmente nombradas como pruebas t desapareadas o de muestras independientes, debido a que
tienen su aplicacin ms tpica cuando las unidades
estadsticas que denen a ambas muestras que estn
siendo comparadas no se superponen.[5]
El test de hiptesis nula por el cual se demuestra
que la diferencia entre dos respuestas medidas en las
mismas unidades estadsticas es cero. Por ejemplo,
supngase que se mide el tamao del tumor de un
paciente con cncer. Si el tratamiento resulta efectivo, lo esperable sera que el tumor de muchos pacientes disminuyera de tamao luego de seguir el
tratamiento. Esto con frecuencia es referido como
prueba t de mediciones apareadas o repetidas.[5][6]

Historia

El estadstico t fue introducido por William Sealy Gosset en 1908, un qumico que trabajaba para la cervecera Guinness de Dubln. Student era su seudnimo de
escritor.[1][2][3] Gosset haba sido contratado gracias a la
poltica de Claude Guiness de reclutar a los mejores graduados de Oxford y Cambridge, y con el objetivo de aplicar los nuevos avances en bioqumica y estadstica al proceso industrial de Guiness.[2] Gosset desarroll el test t
como una forma sencilla de monitorizar la calidad de la
famosa cerveza stout. Public su test en la revista inglesa
Biometrika en el ao 1908, pero fue forzado a utilizar un
seudnimo por su empleador, para mantener en secreto
los procesos industriales que se estaban utilizando en la
produccin. Aunque de hecho, la identidad de Gosset era
conocida por varios de sus compaeros estadsticos.[4]

El test para comprobar si la pendiente de una


regresin lineal diere estadsticamente de cero.

3 Estadsticos T y Z
La mayor parte de las pruebas estadsticas t tienen la forma T = Zs , donde Z y s son funciones de los datos estudiados. Tpicamente, Z se disea de forma tal que resulte
sensible a la hiptesis alternativa (p.ej. que su magnitud
tienda a ser mayor cuando la hiptesis alternativa es verdadera), mientras que s es un parmetro de escala que
permite que la distribucin de T pueda ser determinada.

Usos

Por ejemplo, en una prueba t de muestra nica, Z = X


,
n
es la media muestral de los datos, n es el tamao
donde X
Entre los usos ms frecuentes de las pruebas t se encuenmuestral, y es la desviacin estndar de la poblacin de
tran:
datos; s en una prueba de muestra nica es
/ , donde

es la desviacin estndar muestral.


El test de locacin de muestra nica por el cual se
comprueba si la media de una poblacin distribui- Las asunciones subyacentes en una prueba t son:
da normalmente tiene un valor especicado en una
Que Z sigue una distribucin normal bajo la
hiptesis nula.
hiptesis nula.
El test de locacin para dos muestras, por el cual se
ps2 sigue una distribucin 2 con p grados de libercomprueba si las medias de dos poblaciones distritad bajo la hiptesis nula, y donde p es una constante
buidas en forma normal son iguales. Todos estos test
positiva.
son usualmente llamados test t de Student, a pesar de
Z y s son estadsticamente independientes.
que estrictamente hablando, tal nombre slo debera ser utilizado si las varianzas de las dos poblaciones estudiadas pueden ser asumidas como iguales; En una prueba t especca, estas condiciones son conla forma de los ensayos que se utilizan cuando esta secuencias de la poblacin que est siendo estudiada, y
1

5 CLCULOS

de la forma en que los datos han sido muestreados. Por


ejemplo, en la prueba t de comparacin de medias de dos
muestras independientes, deberamos realizar las siguientes asunciones:
Cada una de las dos poblaciones que estn siendo comparadas sigue una distribucin normal. Esto puede ser demostrado utilizando una prueba de
normalidad, tales como una prueba Shapiro-Wilk
o Kolmogrov-Smirnov, o puede ser determinado
grcamente por medio de un grco de cuantiles
normales Q-Q plot.
Si se est utilizando la denicin original de Student
sobre su prueba t, las dos poblaciones a ser comparadas deben poseer las mismas varianzas, (esto se
puede comprobar utilizando una prueba F de igualdad de varianzas, una prueba de Levene, una prueba
de Bartlett, o una prueba de Brown-Forsythe, o estimarla grcamente por medio de un grco Q-Q
plot). Si los tamaos muestrales de los dos grupos
comparados son iguales, la prueba original de Student es altamente resistente a la presencia de varianzas desiguales.[7] la Prueba de Welch es insensible a
la igualdad de las varianzas, independientemente de
si los tamaos de muestra son similares.
Los datos usados para llevar a cabo la prueba deben
ser muestreados independientemente para cada una
de las dos poblaciones que se comparan. Esto en general no es posible determinarlo a partir de los datos,
pero si se conoce que los datos han sido muestreados de manera dependiente (por ejemplo si fueron
muestreados por grupos), entonces la prueba t clsica que aqu se analiza, puede conducir a resultados
errneos.

Pruebas t para dos muestras apareadas y desapareadas

Las pruebas-t de dos muestras para probar la diferencia


en las medias pueden ser desapareadas o en parejas. Las
pruebas t pareadas son una forma de bloqueo estadstico,
y poseen un mayor poder estadstico que las pruebas no
apareadas cuando las unidades apareadas son similares
con respecto a los factores de ruido que son independientes de la pertenencia a los dos grupos que se comparan [cita requerida] . En un contexto diferene, las pruebas-t
apareadas pueden utilizarse para reducir los efectos de los
factores de confusin en un estudio observacional.

tras aleatorias, independientes e idnticamente distribuidas a partir de las dos poblaciones a ser comparadas. Por
ejemplo, supngase que estamos evaluando el efecto de
un tratamiento mdico, y reclutamos a 100 sujetos para el estudio. Luego elegimos aleatoriamente 50 sujetos
para el grupo en tratamiento y 50 sujetos para el grupo
de control. En este caso, obtenemos dos muestras independientes y podramos utilizar la forma desapareada de
la prueba t. La eleccin aleatoria no es esencial en este
caso, si contactamos a 100 personas por telfono y obtenemos la edad y gnero de cada una, y luego se utiliza
una prueba t bimuestral para ver en que forma la media
de edades diere por gnero, esto tambin sera una prueba t de muestras independientes, a pesar de que los datos
son observacionales.

4.2 Apareada
Las pruebas t de muestras dependientes o apareadas, consisten tpicamente en una muestra de pares de valores con
similares unidades estadsticas, o un grupo de unidades
que han sido evaluadas en dos ocasiones diferentes (una
prueba t de mediciones repetitivas). Un ejemplo tpico
de prueba t para mediciones repetitivas sera por ejemplo que los sujetos sean evaluados antes y despus de un
tratamiento.
Una prueba 't basada en la coincidencia de pares muestrales se obtiene de una muestra desapareada que luego es
utilizada para formar una muestra apareada, utilizando
para ello variables adicionales que fueron medidas conjuntamente con la variable de inters.[8]
La valoracin de la coincidencia se lleva a cabo mediante
la identicacin de pares de valores que consisten en una
observacin de cada una de las dos muestras, donde las
observaciones del par son similares en trminos de otras
variables medidas. Este enfoque se utiliza a menudo en
los estudios observacionales para reducir o eliminar los
efectos de los factores de confusin.

5 Clculos
Las expresiones explcitas que pueden ser utilizadas para
obtener varias pruebas t se dan a continuacin. En cada
caso, se muestra la frmula para una prueba estadstica
que o bien siga exactamente o aproxime a una distribucin
t de Student bajo la hiptesis nula. Adems, se dan los
apropiados grados de libertad en cada caso. Cada una de
estas estadsticas se pueden utilizar para llevar a cabo ya
sea un prueba de una cola o prueba de dos colas.

Una vez que se ha determinado un valor t, es posible encontrar un valor p asociado utilizando para ello una tabla
de valores de distribucin t de Student. Si el valor p caLas pruebas t desapareadas o de muestras independien- lulado es menor al lmite elegido por signicancia estates, se utilizan cuando se obtienen dos grupos de mues- dstica (usualmente a niveles de signicancia 0,10; 0,05

4.1

Desapareada

5.3

Prueba t para dos muestras independientes

o 0,01), entonces la hiptesis nula se rechaza en favor de 5.3


la hiptesis alternativa.

5.1

Prueba t para muestra nica

En esta prueba se evala la hiptesis nula de que la media


de la poblacin estudiada es igual a un valor especicado
0 , se hace uso del estadstico:
t=

x
0 ,
s/ n

Prueba t para dos muestras independientes

5.3.1 Iguales tamaos muestrales, iguales varianzas


Esta prueba se utiliza solamente cuando:
los dos tamaos muestrales (esto es, el nmero, n,
de participantes en cada grupo) son iguales;
se puede asumir que las dos distribuciones poseen la
misma varianza.

donde x es la media muestral, s es la desviacin estndar


muestral y n es el tamao de la muestra. Los grados de
libertad utilizados en esta prueba se corresponden al valor Las violaciones a estos presupuestos se discuten ms abajo.
n 1.
El estadstico t a probar si las medias son diferentes se
puede calcular como sigue:

5.2

Pendiente de una regresin lineal

Supngase que se est ajustando el modelo:


Yi = + xi + i ,
donde xi, i = 1, ..., n son conocidos, y son desconocidos, y i es el error aleatorio en los residuales que se
encuentra normalmente distribuido, con un valor esperado 0 y una varianza desconocida 2 , e Yi, i = 1, ..., n son
las observaciones.

t=

1 X
2
X
2
SX1 X2 n

Donde []
SX1 X2 =

1
2
2 (SX1

2 )
+ SX
2

Aqu SX1 X2 es la desviacin estndar combinada, 1 =


grupo uno, 2 = grupo 2. El denominador de t es el error
estndar de la diferencia entre las dos medias.

Por prueba de signicancia, los grados de libertad de esta


Se desea probar la hiptesis nula de que la pendiente prueba se obtienen como 2n 2 donde n es el nmero de
es igual a algn valor especicado 0 (a menudo toma el participantes en cada grupo.
valor 0, en cuyo caso la hiptesis es que x e y no estn
relacionados).
5.3.2 Diferentes tamaos muestrales, iguales varianzas
sea

b, b = mnimos cuadrados de estimadores,


Esta prueba se puede utilizar nicamente si se puede asuSEb , SEb = mnimos cuadrados de estimadores los de estndar
mir queerror.
las dos distribuciones poseen la misma varianza.
(Cuando
este presupuesto se viola, mirar ms abajo). El
Luego
estadstico
t si las medias son diferentes puede ser calcub 0
tvalor =
lado como sigue:
SEb
t=

1 X

X
2
SX1 X2 n1 + n1

tiene una distribucin t con n 2 grados de libertad si la


1
2
hiptesis nula es verdadera. El error estndar de la penDonde
diente:
1 n

(Y b
y )2
2 +(n 1)S 2
n i=1 i 2i
(n1 1)SX
SEb = n2
2
X2
1
(x
x)
i
S
=
.
i=1
X1 X2
n1 +n2 2
puede ser reescrito en trminos de los residuales:
b i ) = residuales = estimados
Ntese
que las frmulas de arriba, son generalizaciones
bi = Yi ybi = Yi (b
+ x
errores,
del
caso
que se da cuando ambas muestras poseen igual
n

SSE =
bi2 = residuales los de cuadrados los de suma. tamao (sustituyendo n por n1 y n2 ).
i=1
SX1 X2 es un estimador de la desviacin estndar comn
de ambas muestras: esto se dene as para que su cuadraLuego tvalor se encuentra dado por:
do sea un estimador sin sesgo de la varianza comn sea

b 0 ) n2
tvalor = (
.
o no la media iguales. En esta frmula, n = nmero de
n
SSE/ i=1 (xi x)2
participantes, 1 = grupo uno, 2 = grupo dos. n 1 es el

6 EJEMPLOS DESARROLLADOS

nmero de grados de libertad para cada grupo, y el tama- nicativamente diferente de 0 . Los grados de libertad
o muestral total menos dos (esto es, n1 + n2 2) es el utilizados son n 1.
nmero de grados de libertad utilizados para la prueba de
signicancia.

6 Ejemplos desarrollados
5.3.3

Diferentes tamaos muestrales, diferentes vaSea A1 denotando un grupo obtenido tomando 6 muestras
rianzas
aleatorias a partir de un grupo mayor:
Esta prueba es tambin conocida como prueba t de Welch A = {30, 02; 29, 99; 30, 11; 29, 97; 30, 01; 29.99}
1
y es utilizada nicamente cuando se puede asumir que las
dos varianzas poblacionales son diferentes (los tamaos
muestrales pueden o no ser iguales) y por lo tanto de- y sea A2 denotando un segundo grupo obtenido de maben ser estimadas por separado. El estadstico t a probar nera similar:
cuando las medias poblacionales son distintas puede ser A2 = {29, 89; 29, 93; 29, 72; 29, 98; 30, 02; 29, 98}
calculado como sigue:
t=

X 1 X 2
sX X
1

Estos podran ser, por ejemplo, los pesos de tornillos elegidos de un montn.

donde

sX 1 X 2 =

s21
n1

s22
n2 .

Aqu s2 es el estimador sin sesgo de la varianza de las dos


muestras, n = nmero de participantes, 1 = grupo uno,
2 = grupo dos. Ntese que en este caso, sX 1 X 2 2 no es
la varianza combinada. Para su utilizacin en pruebas de
signicancia, la distribucin de este estadstico es aproximadamente igual a una distribucin t ordinaria con los
grados de libertad calculados segn:

Vamos a llevar a cabo la prueba de hiptesis contando


como hiptesis nula de que la media de las poblaciones
de las cuales hemos tomado las muestras son iguales.
La diferencia entre las dos medias de muestras, cada uno
denotado por X i , la cual aparece en el numerador en
todos los enfoques de dos muestras discutidas anteriormente, es
X 1 X 2 = 0, 095.

La desviaciones estndar muestrales para las dos muestras son aproximadamente 0,05 y 0,11 respectivamente.
g.l. =
Para muestras tan pequeas, una prueba de igualdad entre
las varianzas de las dos poblaciones no es muy poderoso.
Esta ecuacin es llamada la ecuacin Welch Pero ya que los tamaos muestrales son iguales, las dos
Satterthwaite. Ntese que la verdadera distribucin formas de las dos pruebas t se pueden desarrollar en forde este estadstico de hecho depende (ligeramente) de ma similar en este ejemplo.
dos varianzas desconocidas.
(s21 /n1 +s22 /n2 )2
.
(s21 /n1 )2 /(n1 1)+(s22 /n2 )2 /(n2 1)

5.4

6.1 Varianzas desiguales


Prueba t dependiente para muestras
apareadas
Si se decide continuar con el enfoque para varianzas de-

siguales (discutido anteriormente), los resultados son


Esta prueba se utiliza cuando las muestras son dependien- 2
s22
s1
tes; esto es, cuando se trata de una nica muestra que ha
n1 + n2 0, 0485
sido evaluada dos veces (muestras repetidas) o cuando las
dos muestras han sido emparejadas o apareadas. Este es y
un ejemplo de un test de diferencia apareada.
gl 7, 03
D
0.
t= X
sD / n
Para esta ecuacin, la diferencia D entre todos los pares
tiene que ser calculada. Los pares se han formado ya sea
con resultados de una persona antes y despus de la evaluacin o entre pares de personas emparejadas en grupos
de signicancia (por ejemplo, tomados de la misma familia o grupo de edad: vase la tabla). La media (XD) y la
desviacin estndar (sD) de tales diferencias se han utilizado en la ecuacin. La constante 0 es diferente de cero
si se desea probar si la media de las diferencias es sig-

El resultado de la prueba estadstica es aproximadamente


1,959. El valor p para la prueba de dos colas da un valor
aproximado de 0,091 y el valor p para la prueba de una
cola es aproximadamente 0,045.

6.2 Varianzas iguales


Si se sigue el enfoque para varianzas iguales (discutido
anteriormente), los resultados son

5
SX1 X2 0, 084
y
gl = 10
Ya que el tamao de las muestras es igual (ambas tienen 6 elementos), el resultado de la prueba estadstica es
nuevamente un valor que se aproxima a 1.959. Debido a
que los grados de libertad son diferentes de la prueba para varianzas desiguales, los valores P dieren ligeramente
de los obtenidos un poco ms arriba. Aqu el valor p para la prueba de dos colas es aproximadamente 0,078, y
el valor p para una cola es aproximadamente 0,039. As,
si hubiera una buena razn para creer que las varianzas
poblacionales son iguales, los resultados seran algo ms
sugerentes de una diferencia en los pesos medios de las
dos poblaciones de tornillos.

Alternativas a la prueba t para


problemas de locacin

La prueba t provee un mecanismo exacto para evaluar la


igualdad entre las medias de dos poblaciones que tengan
varianzas iguales, aunque el valor exacto de las mismas
sea desconocido. El test de Welch es una prueba aproximadamente exacta para el caso en que los datos poseen
una distribucin normal, pero las varianzas son diferentes. Para muestras moderadamente grandes y pruebas de
una cola, el estadstico t es moderadamente robusto a las
violaciones de la asuncin de normalidad.[9]
Para ser exactos tanto las pruebas t como las z requiere
que las medias de las muestras sigan una distribucin normal, y la prueba t adicionalmente requiere que la varianza
de las muestras siga una distribucin Chi-cuadrado (2 ), y
que la media muestral y la varianza muestral sean estadsticamente independientes. La normalidad de los valores
individuales de los datos no es un requisito para que estas
condiciones se cumplan. Por el teorema del lmite central, las medias muestrales de muestras moderadamente grandes tambin aproximan una distribucin normal,
incluso si los datos individuales no estn normalmente
distribuidos. Para datos no normales, la distribucin de
la varianza muestral puede desviarse sustancialmente de
una distribucin 2 . Sin embargo, si el tamao muestral
es grande, el teorema de Slutsky indica que la distribucin
de las varianzas muestrales ejerce un efecto muy pequeo en la distribucin de la prueba estadstica. Si los datos
son substancialmente no normales, y el tamao muestral
es pequeo, la prueba t puede entregar resultados equivocados.

trica (esto es, que la distribucin est sesgada) o la distribucin tiene colas muy grandes, entonces el test de suma de posiciones (ranks) de Wilcoxon (conocido tambin
como prueba U de Mann-Whitney) puede tener de tres
a cuatro veces mayor poder estadstico que una prueba
t.[9][10][11]
La contraparte no paramtrica a la prueba t de muestras
apareadas es la prueba Wilcoxon de suma de posiciones
con signo para muestras pareadas. Para una discusin sobre cuando hacer una eleccin entre las alternativas t y no
paramtricos, consulte a Sawilowsky.[12]
El anlisis de varianza one-way generaliza la prueba t
de dos muestras para casos donde los datos pertenecen a
ms que dos grupos.

8 Pruebas multivariadas
Una generalizacin del estadstico t de Student llamada
estadstico t cuadrado de Hotelling, permite la comprobacin de hiptesis en mltiples (y a menudo correlacionadas) mediciones de la misma muestra. Por ejemplo, un
investigador puede presentar un nmero de sujetos a un
test de mltiples escalas de personalidad (p.ej el de cinco
grandes rasgos de personalidad). Debido a que las medidas de este tipo suelen estar muy correlacionadas, no es
aconsejable llevar a cabo varias pruebas univariadas, ya
que esto supondra descuidar la covarianza entre las medidas e inar la probabilidad de rechazar falsamente al
menos una hiptesis (error de tipo I). En este caso una
nica prueba mltiple es preferible para llevar a cabo las
pruebas de hiptesis. El estadstico t de Hosteling sigue
una distribucin T 2 , sin embargo en la prctica, esta distribucin se utiliza muy raramente, y en cambio se suele
convertir en una distribucin de tipo F.

8.1 Prueba T 2 monomuestral


Para una prueba multivariable de nica muestra, la hiptesis es que el vector medio ( ) es igual a un vector ( 0
) dado. La prueba estadstica se dene como:
T 2 = n(x 0 ) S1 (x 0 )
Donde n es el tamao muestral, x es el vector de columnas
medio y S una matriz de covarianza muestral m m .

8.2 Prueba T 2 bimuestral

Para un test multivariable de dos muestras, la hiptesis es


Cuando la asuncin de normalidad no se sostiene, una al- que los vectores medios ( 1 , 2 ) de las dos muestras
ternativa no paramtrica a la prueba t puede ofrecer un son iguales. La prueba estadstica se dene como:
n2
(x1 x2 ) Spooled 1 (x1 x2 ).
mejor poder estadstico. Por ejemplo, para dos muestras T 2 = nn11+n
2
independientes cuando la distribucin de datos es asim-

12 ENLACES EXTERNOS

Implementaciones

[10] Blair, R. C.; Higgins, J.J. (1980). A comparison of


the power of Wilcoxons rank-sum statistic to that of
Students t statistic under various nonnormal distributions.. Journal of Educational Statistics 5 (4): 309334.
doi:10.2307/1164905. JSTOR 1164905.

La mayora de los programas tipo hoja de clculo y paquetes estadsticos de lenguajes de programacin, tales
como QtiPlot, OpenOce.org Calc, LibreOce Calc,
Microsoft Excel, SAS, SPSS, Stata, DAP, gretl, R, [11] Fay, MP; Proschan, MA (2010). Wilcoxon-MannWhitney or t-test? On assumptions for hypothesis tests
Python (), PSPP, Infostat y Minitab, y PRISMA6 incluand multiple interpretations of decision rules. Statistics
yen implementaciones del test t de Student.
Surveys 4: 139. doi:10.1214/09-SS051. PMC 2857732.
PMID 20414472.

10

Lecturas adicionales

Boneau, C. Alan (1960). The eects of violations


of assumptions underlying the t test. Psychological
Bulletin 57 (1): 4964. doi:10.1037/h0041412.
Edgell, Stephen E., & Noon, Sheila M (1984). Effect of violation of normality on the t test of the correlation coecient. Psychological Bulletin 95 (3):
576583. doi:10.1037/0033-2909.95.3.576.

11

Referencias

[1] Richard Mankiewicz, The Story of Mathematics (Princeton University Press), p.158.
[2] O'Connor, John J.; Robertson, Edmund F., Prueba t de
Student (en ingls), MacTutor History of Mathematics archive, Universidad de Saint Andrews, http://www-history.
mcs.st-andrews.ac.uk/Biographies/Gosset.html.
[3] Fisher Box, Joan (1987). Guinness, Gosset, Fisher,
and Small Samples. Statistical Science 2 (1): 4552.
doi:10.1214/ss/1177013437. JSTOR 2245613.
[4] Raju TN (2005). William Sealy Gosset and William A.
Silverman: two students of science. Pediatrics 116 (3):
7325. doi:10.1542/peds.2005-1134. PMID 16140715.
[5] Fadem, Barbara (2008). High-Yield Behavioral Science (High-Yield Series). Hagerstwon, MD: Lippincott Williams & Wilkins. ISBN 0-7817-8258-9.
[6] Zimmerman, Donald W. (1997). A Note on Interpretation of the Paired-Samples t Test. Journal of Educational and Behavioral Statistics 22 (3): 349360. JSTOR
1165289.
[7] Markowski, Carol A; Markowski, Edward P. (1990).
Conditions for the Eectiveness of a Preliminary Test
of Variance. The American Statistician 44 (4): 322326.
doi:10.2307/2684360. JSTOR 2684360.
[8] David, HA; Gunnink, Jason L (1997). The Paired t Test
Under Articial Pairing. The American Statistician 51
(1): 912. doi:10.2307/2684684. JSTOR 2684684.
[9] Sawilowsky S., Blair R. C. (1992). A more realistic
look at the robustness and type II error properties of
the t test to departures from population normality. Psychological Bulletin 111 (2): 353360. doi:10.1037/00332909.111.2.352.

[12] Sawilowsky S (2005). Misconceptions leading to choosing the t test over the Wilcoxon Mann-Whitney U test for
shift in location parameter. Journal of Modern Applied
Statistical Methods 4 (2): 598600.

O'Mahony, Michael (1986). Sensory Evaluation of


Food: Statistical Methods and Procedures. CRC
Press. p. 487. ISBN 0-824-77337-3.
Press, William H.; Saul A. Teukolsky, William T.
Vetterling, Brian P. Flannery (1992). Numerical
Recipes in C: The Art of Scientic Computing.
Cambridge University Press. pp. p. 616. ISBN 0-52143108-5.

12 Enlaces externos

Wikiversidad alberga proyectos de aprendizaje


sobre Prueba t de Student.Wikiversidad

Un artculo conceptual sobre el test t de Student


Tabla de distribuciones t de Student

12.1 Calculadores en lnea


Realizar un test-T online: test-T
Online T-Test Calculator
2 Sample T-Test Calculator
GraphPads Paired/Unpaired/Welch T-Test Calculator

13
13.1

Origen del texto y las imgenes, colaboradores y licencias


Texto

Prueba t de Student Fuente: https://es.wikipedia.org/wiki/Prueba_t_de_Student?oldid=88391939 Colaboradores: Sabbut, LP, CEM-bot,


Davius, Resped, Biolitos, Loveless, Bigsus-bot, BOTarate, Manw, Alberto2087, J3D3, Aleatorio, Juan Mayordomo, Luckas-bot, MystBot,
DiegoFb, ArthurBot, Xqbot, Botarel, Marsal20, PatruBOT, Humbefa, EmausBot, ChessBOT, MerlIwBot, KLBot2, Invadibot, Acratta,
MahdiBot, Addbot, Jarould y Annimos: 27

13.2

Imgenes

Archivo:Wikiversity-logo-Snorky.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/1/1b/Wikiversity-logo-en.svg Licencia: CC BY-SA 3.0 Colaboradores: Trabajo propio Artista original: Snorky

13.3

Licencia del contenido

Creative Commons Attribution-Share Alike 3.0

Das könnte Ihnen auch gefallen