Beruflich Dokumente
Kultur Dokumente
Las inferencias en cuanto a las medias son en general robustas, por lo que si el
tamao de muestra es grande, los intervalos de confianza y contrastes basados en
la t de Student son aproximadamente vlidos, con independencia de la verdadera
distribucin de probabilidad de los datos; pero si sta distribucin no es normal, los
resultados de la estimacin sern poco precisos.
Contraste de Pearson
La idea del contraste de Pearson es muy sencilla: se agrupan los datos en k clases
(k>5), como si furamos a construir un histograma, cubriendo todo el rango posible
de valores, siendo deseable disponer, aproximadamente, del mismo nmero de
datos en cada clase y al menos de tres datos en cada una.
Prueba de Kolmogorov-Smirnov
Prueba de Shapiro-Wilks
Estas tres transformaciones comprimen los valores altos de los datos y expanden
los bajos, en sentido creciente en el siguiente orden: (la que menos), ln x, 1/x.
Cuando los datos son proporciones o porcentajes de una distribucin binomial, las
diferencias con una distribucin normal son ms acusadas para valores pequeos o
grandes de las proporciones, utilizndose entonces transformaciones basadas en
En todos los casos para los clculos estadsticos basados en la teora normal, se
utilizarn los valores transformados, pero despus para la presentacin de los
resultados se efectuar la transformacin inversa para presentarlos en su escala de
medida natural.
Pruebas no paramtricas
Esta prueba nos permite comparar nuestros datos con una mediana terica (por
ejemplo un valor publicado en un artculo).
Para efectuar esta prueba se calculan las diferencias en valor absoluto |Xi-M0| y se
ordenan de menor a mayor, asignndoles su rango (nmero de orden). Si hubiera
dos o ms diferencias con igual valor (empates), se les asigna el rango medio (es
decir que si tenemos un empate en las posiciones 2 y 3 se les asigna el valor 2.5 a
ambas). Ahora calculamos R+ la suma de todos los rangos de las diferencias
positivas, aquellas en las que Xi es mayor que M0 y R- la suma de todos los rangos
correspondientes a las diferencias negativas. Si la hiptesis nula es cierta ambos
estadsticos debern ser parecidos, mientras que si nuestros datos tienen a ser ms
altos que la mediana M0, se reflejar en un valor mayor de R+, y al contrario si son
ms bajos. Se trata de contrastar si la menor de las sumas de rangos es
excesivamente pequea para ser atribuida al azar, o, lo que es equivalente, si la
mayor de las dos sumas de rangos es excesivamente grande.
http://www.seh-lelha.org/noparame.htm
Enlaces de inters
The normal distribution Douglas G Altman & J Martin Bland BMJ 1995;310:298
(4 Febrero)
Transforming data J Martin Bland & Douglas G Altman BMJ 1996;312:770 (23
March)
Transformations, means, and confidence intervals J Martin Bland & Douglas G
Altman BMJ 1996;312:1079 (27 April)
The use of transformation when comparing two means J Martin Bland & Douglas
G Altman BMJ 1996;312:1153 (4 May)
Algunas direcciones que permiten efectuar clculos de pruebas no
paramtricas:
Prueba de Kruskall-Wallis
Prueba de Friedman
Recordemos que los dos objetivos principales de la estadstica son, por un lado
la estimacin de un parmetro de una poblacin, a partir de los valores
obtenidos en una muestra, y por otro el contraste de hiptesis a partir de los
resultados observados en una muestra.
Plantearemos hoy otro enfoque distinto del habitual a ese tipo de problemas, y
para ello comenzaremos sirvindonos de un pequeo ejemplo.
A 134 155 129 135 117 118 136 139 126 129
B 147 118 139 120 152 163 145 153 142 157
Medias
A 131.8
B 143.6
Diferencia -11.8
Pero vamos a ver otras posibles formas de contrastar este tipo de hiptesis.
Podemos mezclar los 20 valores; supongamos que los escribimos en 20
papeletas y los introducimos en una urna, y extraemos al azar 10 papeletas por
un lado y otras 10 por otro, calculamos la diferencia de medias entre estas dos
muestras y anotamos si sta nueva diferencia es igual o mayor que la obtenida
originalmente o si, por el contrario, es menor. Volvemos a introducir las
papeletas en la urna y repetimos el proceso un gran nmero de veces.
Calculamos, repitiendo ese procedimiento, el porcentaje de las veces que
encontramos una diferencia igual o ms extrema que la obtenida realmente en
nuestro experimento. Si ese nmero es alto concluimos que la etiqueta grupo A
o B verdaderamente puede deberse al azar y que por lo tanto no hay diferencias
estadsticamente significativas entre los grupos, mientras que si ese nmero de
veces es pequeo, nuestro resultado es infrecuente, y por lo tanto preferiremos
rechazar la hiptesis de igualdad, y pensar que la presencia de diferencias es
ms plausible. Esta metodologa se conoce como pruebas de aleatorizacin.
Pero adems, en este ejemplo concreto es posible considerar todos los conjuntos
diferentes de 2 muestras de 10 elementos, corresponde a C2010 combinaciones
de 20 elementos tomados de 10 en 10, que constituyen 184756 posibilidades, y
podemos calcular el nmero de entre ellas en las que la diferencia es igual o
mayor que la observada. Obviamente, tanto en el caso anterior en el que
constituiamos las muestras de forma aleatoria, como en el caso de que
enumeremos todas las posibilidades, lo haremos utilizando el ordenador. Pero
incluso con el ordenador si las muestras son grandes, el tiempo de clculo para
enumerar todas las posibilidades puede ser enorme y habr que acudir a la
primera situacin en la que generamos un gran nmero, aunque limitado, de
muestras aleatorias.
Hago notar que ahora hemos utilizado una tcnica estadstica para comparar las
dos muestras que no hace ninguna suposicin en cuanto a la distribucin de
probabilidad de la que proceden los datos.
Una vez definido el parmetro que deseamos conocer, ya sea ste la media, la
mediana u otro, se trata de calcularlo a partir de los datos observados en
nuestra muestra y de cuantificar de alguna manera cmo de precisa es esa
estimacin; o dicho de otra forma, determinar hasta qu punto podemos
garantizar que lo que nosotros hemos observado es extrapolable al colectivo del
que se extrajo esa muestra.
El mtodo jackknife fue propuesto por Tukey en 1958 y en este caso el nombre
alude a esas navajas multiuso que son a la vez sacacorchos, abrelatas,
destornillador..., buenas para todo si no se tiene algo mejor a mano -siempre es
mejor abrir una lata con ellas que con una piedra, pero donde est un abrelatas
del "explorador"...-
Debido a que se trata de mtodos que slo son posibles gracias a la moderna
potencia de clculo de los ordenadores, ya que es preciso generar un elevado
nmero de muestras aleatorias, tambin se conocen como mtodos de uso
intesivo del ordenador (computer intesive methods).
Bsqueda N de referencias
bootstrap 1204
jackknife 10
resampling 333
Tambin por curiosidad he efectuado una bsqueda simple en Lancet del trmino
"monte carlo", encontrando 18 artculos, y bootstrap 29 artculos.
Aunque son en general cifras pequeas vemos, una vez ms, que hay gente y
artculos para todo...
Enlaces interesantes
Download Trial version of RT 2.1
A DOS program for randomization methods. Written by Dr. Bryan F. Manly to
accompany his book, "Randomization and Monte Carlo Methods in Biology" published
by Chapman and Hall.
Resampling Methods
Phillip Good
Resampling methods
Chong-ho Yu
Indice de artculos