Beruflich Dokumente
Kultur Dokumente
Pruebas Estadsticas
No Paramtricas
Para modelos estadsticos, pruebas estadsticas e inferencia no paramtrica. Estos son mtodos
libres de distribucin, es decir, no se basan en supuestos de que los datos provengan de una
distribucin de probabilidad determinada. Son importantes en la econometra porque con
frecuencia no se conocen los parmetros de las series de tiempo con las que se trabajan. El
termino estadstico no paramtrico tambin puede hacer referencia a un estadstico (funcin
sobre una muestra) cuya interpretacin no depende de que la poblacin se ajuste a cualquier
distribucin parametrizada.
Estos mtodos se usan cuando los datos tienen un ranking pero no una interpretacin numrica
clara, Ej. Las preferencias. Como hacen pocos supuestos, su aplicacin es ms amplia que los
mtodos paramtricos. Se aplican en situaciones donde se conoce poco sobre la aplicacin en
cuestin. Adems, por basarse en menos supuestos, estos mtodos son ms robustos. Tambin
son ms simples de implementar. Aunque en algunas situaciones se justifique la caracterizacin
de parmetros, los mtodos no paramtricos son ms fciles de usar. Todo esto deja poco espacio
para el mal uso y mal interpretacin. (mayor objetividad)
Los modelos no paramtricos difieren de los modelos paramtricos en que la estructura del
modelo no es especificada a priori, si no que es determinada con los datos. Esto no significa que
el modelo carezca de parmetros, si no que el nmero y naturaleza de los parmetros es flexible
y no fijada en adelanto. Muchas pruebas de bondad de ajuste no parametricas se basan en la
estimacin de mnima distancia contrastando la estimacin de mxima verosimilitud en las
paramtricas.
Un histograma es un estimado no paramtrico simple de una distribucin de probabilidad. La
estimacin de densidad kernel (Kernel density estimation - Parzen window) provee mejores
estimados de la densidad que los histogramas. La regresin no paramtrica y semi-paramtrica se
basan en kernels, splines, y wavelets.
Mtodos:
Coeficiente de correlacin de rangos Spearman
Mann-Whitney U
Kruskal-Wallis anlisis de varianza (ANOVA) de una va
Friedman anlisis de varianza (ANOVA) de dos vas
Prueba Durbin
Prueba de corridas Wald-Wolfowitz
Prueba Kolmogorov-Smirnov
Prueba Anderson-Darling
Mtodos utilizados como complementos:
Estadstico Durbin-Watson (detecta la presencia de autocorrelacin en los residuos de un
anlisis de regresin solo valido para regresores estocsticos)
Prueba LM de correlacin serial Breusch-Godfrey (ms general y complemento de DW)
Prueba Jarque-Bera (bondad de ajuste que mide discrepancia con normalidad basada en la
custosis y asimetra de la muestra)
Prueba 2 (bsica)
Propiedades asintticas
a.s.
Prueba Kolmogorov-Smirnov
La prueba KS es una forma de estimacin de mnima distancia usada como prueba
no paramtrica de igualdad de distribuciones de probabilidad unidimensionales, utilizada para
comparar una muestra con una distribucin de probabilidad de referencia (KS 1-muestra), o para
comparar dos muestras (KS 2-muestra). El estadstico KS cuantifica una distancia entre la
funcin de distribucin empirica de la muestra y la funcin de distribucin acumulada de la
distribucin de referencia, o entre las funciones de distribucin empirica de dos muestras.
La distribucin nula (distribucin de probabilidad del estadstico de prueba cuando la H0 es
verdadera) de este estadstico es calculada bajo la hiptesis nula que las muestras son extradas
de la misma distribucin (en el caso de 2-muestra) o que la muestra es extrada de la distribucin
de referencia (en el caso 1-muestra). En cada caso, las distribuciones consideradas bajo la H0 son
distribuciones continuas sin restricciones.
La prueba KS se puede modificar para servir como prueba de bondad de ajuste. En el caso
especial de probar la normalidad de la distribucin, muestras son estandarizadas y comparadas
con la distribucin normal estndar. Esto es equivalente a cuadrar la media y varianza de la
distribucin de referencia igual a los estimados muestral, y es sabido que utilizar la muestra para
modificar la H0 reduce la potencia de la prueba. La prueba Lilliefors es una adaptacin que
intenta corregir este sesgo, pero no es tan potente como la AD.
La funcin de distribucin empirica Fn para n i.i.d. observaciones Xi es definida como
1 n
Fn ( x) = I ( X i x) donde I(Xi x) es igual a 1 si Xi x ; y 0 en cualquier otro caso.
n i =1
El estadstico KS para una f.d.c. F(x) dada es
Dn = sup Fn ( x) F ( x)
x
a.s.
0.
Glivenko-Cantelli, si la muestra proviene de la distribucin F(x), entonces Dn
Kolmogorov fortaleci este resultado proveyendo efectivamente la tasa de esta convergencia. El
teorema Donsker provee un resultado ms fuerte (utilizando el limite del proceso G como un
proceso Gaussiano).
La distribucin Kolmogorov es la distribucin de la variable aleatoria
K = sup B (t )
t[0,1]
2 ( 2i 1) 2 2 /(8 x 2 )
i 1 2i 2 x 2
por P( K x ) = 1 2 ( 1) e
=
e
x
i =1
i =1
Dn,n = sup Fn ( x) Fn ( x)
nn
Dn, n > K
n + n
Es por esto que la prueba de bondad de ajuste AD es preferible, aunque solo se puede usar para
pocas distribuciones especificas.
Prueba Anderson-Darling
La prueba AD es una forma de estimacin de mnima distancia, y uno de los estadsticos ms
potentes para detectar discrepancia con respecto a normalidad. Se puede utilizar con un tamao
muestral bajo (n 25). Tamaos muestrales muy grandes pueden rechazar el supuesto de
normalidad con tan solo pequeas imperfecciones.
La prueba AD ve si la muestra proviene de una distribucin especfica. La frmula del
estadstico A para ver si los datos provienen de una distribucin con f.d.c. F es A2 = n S. Para
ello, los datos {Y1 < < Yn} deben estar ordenados.
S=
n 2k 1
k =1 n
El estadstico de prueba puede entonces ser comparado contra los valores crticos de la
distribucin terica (dependiendo de que F es utilizada) para determinar el p-valor. La prueba
AD para normalidad es una prueba de distancia o prueba de funcin de distribucin empirica.
Esta basada en el concepto de que cuando se da una distribucin subyacente hipottica, los datos
pueden ser transformados a una distribucin uniforme. Los datos muestrales transformados
pueden entonces ser probados para uniformidad con una prueba de distancia.
Procedimiento
Esta explicacin esta basada en una prueba para una distribucin normal
Los datos Xi para i = 1,,n de la variable X que se quiere probar se organizan ascendentemente
(menor a mayor). La media X y desviacin estndar s son calculadas para la muestra X. Los
valores Xi se estandarizan como Yi =
Xi X
. Con la f.d.c. normal estndar , A2 se calcula
s
como
1 n
A2 = n S = n (2i 1)[ln (Yi ) + ln(1 (Yn +1i ))]
n =1
144i4
444442444444443
1 n
n [( 2i 1) ln (Yi ) + ( 2( n i ) +1) ln(1 (Yi ))]
n i =1
La prueba es unidireccional (una cola), entonces si el estadstico A = A2 es mayor al valor
critico, se rechaza la hiptesis nula de que la distribucin sigue una forma especifica.