Sie sind auf Seite 1von 3

3.

3 PRUEBA DE BONDAD DE AJUSTE NORMAL DE ANDERSON DARLING


La prueba Anderson-Darling es, en general, ms potente que la pruebas X2 de Pearson y la de Kolmogorov-Smirnov (Stephens,1974, Cap. 4). Resulta lgico pensar que la X2 de Pearson es menos potente que la de Kolmogorov-Smirnov y la de Anderson- Darling debido a que trabaja con datos agrupados debido al agrupamiento. Hay prdida de informacin. Por otro lado, la prueba KolmogorovSmirnov es menos sensible a desajustes que pudieran haber en las colas de la distribucin, que la prueba Anderson- Darling (Easterling 1976; Stephens 1974, Cap 4). En particular, la prueba Anderson- Darling funciona mejor que cualquiera otra, cuando haya casos extraordinarios o aberrantes (outliers). La estadstica Anderson-Darling est dada por la siguiente expresin:

A 2 =-n- (1/n)[(2i - 1) Ln(P ( i ) ) + (2n +1 - 2i )Ln{1 - p ( i ) }]


Donde P(i) es el rea bajo la curva normal para el intervalo (-oo,z(i) ), o sea es la funcin distribucin normal estndar evaluada en el i-simo elemento (en orden ascendente) de la muestra. Se presentan dos situaciones para la estadstica Anderson-Darling: la primera en que se conocen los parmetros de la distribucin llamado caso 0 (cero), y la otra en que se desconoce al menos uno de ellos (casos 1, 2 y 3). Situndonos en el caso de bondad de ajuste a la distribucin normal se consideran los siguientes casos:

Caso 0: y s2 conocidos. Caso 1: s2 conocida y desconocida y estimada por X. Caso 2: conocida y s2 desconocida y estimada por s(n) = (x i - )2 /n Caso 3: ambos desconocidos, estimados por X y sn-1 = (x i- x)2 /n-1
Para cada uno de los casos existe una tabla estadstica para realizar la prueba de la hiptesis, Ho: "La muestra aleatoria proviene de una distribucin normal". La estadstica de Anderson-Darling se calcula para los cuatro casos de la misma manera; sin embargo, en el caso 3 se debe multiplicar por un factor de correccin el cual es: 1 + (0.75/n) + (2.25/n2), que mejora la aproximacin. La prueba Anderson-Darling para la bondad de ajuste normal, en el caso 0, se realiza siguiendo los siguientes pasos:

Presentamos en seguida el uso de la estadstica Anderson-Darling aplicada a un conjunto de datos para el caso 0.

Ejemplo 3.7: Supongamos que tenemos 40 pesos en libras de estudiantes varones, cuya media y desviacin estndar poblacionales son, respectivamente 147 y 13. Provienen estos datos d una distribucin normal?
154 135 126 138 132 136 128 138 147 140 144 145 145 176 156 163 164 165 168 173 147 148 149 150 150 Solucin: Ho: Los datos se ajustan a un modelo normal. Ha: Los datos no se ajustan a un modelo normal. 135 152 157 146 142 125 142 158 146 119 135 144 161 140 153

Clculos: a) Primero, se ordenan los valores de la muestra en forma ascendente:


119 136 144 149 158 125 138 145 150 161 126 138 145 150 163 128 140 146 152 164 132 140 146 153 165 135 142 147 154 168 135 142 147 156 173 135 144 148 157 176

b) Se estandariza cada valor de X , y se calcula su probabilidad acumulada p ( i ) de la siguiente


manera:

d) Por ltimo, se compara con el valor de la Tabla T-7 de la distribucin de A2. Se recomienda que la muestra conste de cinco o ms elementos (n > 5) para una mejor confiabilidad de la bondad de ajuste. En nuestro ejemplo 0.1889 est entre 0.175 y 0.200, por lo tanto, la probabilidad de que ocurra un valor como 0.1889 est entre (1-0.0042) = 0.9958 y (1-0.0096) = 0.9904, por lo tanto, no se puede rechazar la hiptesis nula H0: "La muestra aleatoria proviene de una distribucin normal". De lo que se trata en las pruebas de bondad de ajuste, es de no rechazar Ho, contrariamente a lo que se pretende en las pruebas de hiptesis ordinarias: pruebas de igualdad de medias o de varianzas. Con una probabilidad tan alta (confianza tan pobre) como la que se nos presenta en el ejemplo, no podremos rechazar Ho. Como conclusin del ejemplo diremos que al parecer nuestros 40 datos s provienen de una poblacin normal. Ahora supongamos, para efectos de comparacin, que se hubiera desconocido alguno o algunos de los parmetros. El propsito de esto es situarnos en los casos 1, 2 y 3 y ver que tan distintos habran sido los resultados. El siguiente cuadro ilustra tal comparacin:

Aunque por los valores de A2 obtenidos no llegamos en este ejemplo a conclusiones opuestas, si debemos advertir en primer lugar la variacin del valor de A2', que en algn momento pudiera llegar a ser significativo. No es necesario precisar el valor-P* para darse cuenta de la discrepancia entre los valores de A2; con observar simplemente el valor de A' requerido para un valor-P * de 0.025, estamos ya advirtiendo que nuestra decisin puede cambiar:

Valor-P *, es el valor a partir del cual cambia la decisin entre no rechazar y rechazar la hiptesis nula. El valor de ta estadstica A2 con parmetros estimados puede ser muy diferente del valor de A2 del caso cero, ya que sta puede depender del tamao de la muestra, as como de los parmetros estimados y del mtodo de cmo se les estima.. Lo que si puede observarse es que los valores de tablas s cambian dramticamente segn sea el caso (0................3).

Das könnte Ihnen auch gefallen