Sie sind auf Seite 1von 18

FACULTAD DE MECNICA

ESCUELA DE INGENIERA
INDUSTRIAL
SEMINARIO: METODOLOGA DE LA
INVESTIGACIN

TEMA:
ESTADSTICA NO PARAMTRICA
REALIZADO POR:

JUAN YANQUE (1179)

ABRIL 2016- AGOSTO 2016


RIOBAMBA - ECUADOR

ESTADSTICA NO PARAMTRICA
1. Introduccin:

Los mtodos de estadstica inferencial que hemos estudiado a durante el curso, son llamados
mtodos paramtricos porque ellos son basados en muestreos de una poblacin con
parmetros especficos, como la media (), la desviacin estndar () o la proporcin (p).
Estos mtodos paramtricos usualmente tienen que ajustarse a algunas condiciones
completamente estrictas, as como el requisito de que los datos de la muestra provengan de
una poblacin normalmente distribuidas. Esta seccin presenta los mtodos no paramtricos,
los cuales no tienen tales estrictos requisitos.
La mayor parte de las tcnicas estudiadas hacen suposiciones sobre la composicin de los
datos de la poblacin. Las suposiciones comunes son que la poblacin sigue una distribucin
normal, que varias poblaciones tienen varianzas iguales y que los datos se miden en una
escala de intervalos o en una escala de razn. Este tema presentar un grupo de tcnicas
llamadas no paramtricas que son tiles cuando estas suposiciones no se cumplen.

2. ESTADSTICA NO PARAMTRICA:
La estadstica no paramtrica es una rama de la estadstica que estudia las pruebas y modelos
estadsticos cuya distribucin subyacente no se ajusta a los llamados criterios paramtricos.
Su distribucin no puede ser definida a priori, pues son los datos observados los que la
determinan. La utilizacin de estos mtodos se hace recomendable cuando no se puede
asumir que los datos se ajusten a una distribucin conocida, cuando el nivel de medida
empleado no sea, como mnimo, de intervalo.
Las principales pruebas no paramtricas son las siguientes:

Prueba de Pearson

Prueba binomial

Prueba de Anderson-Darling

Prueba de Cochran

Prueba de Cohen kappa

Prueba de Fisher

Prueba de Friedman

Prueba de Kendall

Prueba de Kolmogrov-Smirnov

Prueba de Kruskal-Wallis

Prueba de Kuiper

Prueba de Mann-Whitney o prueba de Wilcoxon

Prueba de McNemar

Prueba de la mediana

Prueba de Siegel-Tukey

Coeficiente de correlacin de Spearman

Tablas de contingencia

Prueba de Wald-Wolfowitz

Prueba de los signos de Wilcoxon

3. PRUEBAS NO PARAMTRICAS:
Definicin:
Se denominan pruebas no paramtricas aquellas que no presuponen una distribucin de
probabilidad para los datos, por ello se conocen tambin como de distribucin libre
(distribution free). En la mayor parte de ellas los resultados estadsticos se derivan
nicamente a partir de procedimientos de ordenacin y recuento, por lo que su base lgica es
de fcil comprensin. Cuando trabajamos con muestras pequeas (n < 10) en las que se
desconoce si es vlido suponer la normalidad de los datos, conviene utilizar pruebas no
paramtricas, al menos para corroborar los resultados obtenidos a partir de la utilizacin de la
teora basada en la normal.
En estos casos se emplea como parmetro de centralizacin la mediana, que es aquel punto
para el que el valor de X est el 50% de las veces por debajo y el 50% por encima.
Aunque el trmino no paramtrico sugiere que la prueba no est basada en un parmetro, hay
algunas pruebas no paramtricas que dependen de un parmetro tal como la media. Las
pruebas no paramtricas.
Eleccin de la prueba no paramtricas:

4. VENTAJAS Y DESVENTAJAS DE MTODOS NO PARAMTRICOS


Ventajas de los Mtodos No Paramtricos
1. Los mtodos no paramtricos pueden ser aplicados a una amplia variedad de
situaciones porque ellos no tienen los requisitos rgidos de los mtodos paramtricos
correspondientes. En particular, los mtodos no paramtricos no requieren
poblaciones normalmente distribuidas.
2. Diferente a los mtodos paramtricos, los mtodos no paramtricos pueden
frecuentemente ser aplicados a datos no numricos, tal como el gnero de los que
contestan una encuesta.
3. Los mtodos no paramtricos usualmente involucran simples computaciones que los
correspondientes en los mtodos paramtricos y son por lo tanto, ms fciles para
entender y aplicar.
Desventajas de los Mtodos No Paramtricos
1. Los mtodos no paramtricos tienden a perder informacin porque datos numricos
exactos son frecuentemente reducidos a una forma cualitativa.
2. Las pruebas no paramtricas no son tan eficientes como las pruebas paramtricas, de
manera que con una prueba no paramtrica generalmente se necesita evidencia ms

fuerte (as como una muestra ms grande o mayores diferencias) antes de rechazar
una hiptesis nula.
3. Cuando los requisitos de la distribucin de una poblacin son satisfechos, las pruebas
no paramtricas son generalmente menos eficientes que sus contrapartes paramtricas,
pero la reduccin de eficiencia puede ser compensada por un aumento en el tamao de
la muestra.

5. PRUEBA DE FRIEDMAN
5.1.
DEFINICION
En estadstica la prueba de Friedman es una prueba no paramtrica desarrollado por el
economista Milton Friedman. Equivalente a la prueba ANOVA para dos factores en la
versin no paramtrica, el mtodo consiste en ordenar los datos por filas o bloques,
reemplazndolos por su respectivo orden. Al ordenarlos, debemos considerar la existencia de
datos idnticos.

5.2.
Comparacin de varios clasificadores
Los mtodos anteriores no fueron diseados para la media de varias variables.
Cuando se hacen muchos test, parte de la hiptesis nula se rechaza debido a la

aleatoriedad (Salzberg97).
Dos posibles alternativas:
ANOVA
Prueba de Friedman

ANOVA

Friedman test

Mtodo estadstico habitual.

Es la versin no-paramtrica del

Condiciones:

ANOVA.

Distribucin normal.

Utilizar la modificacin de Iman y

Requiere que las variables aleatorias Davenport (1980) al ser un mejor estadstico
tengan igual varianza.

(menos conservativo).

La naturaleza de los datos no da pistas Se cumplen las condiciones impuestas por


sobre la satisfaccin de la condicin anterior.

ANOVA?

La violacin de las condiciones tiene un SI => Utilizar ANOVA.


gran efecto en el post-hoc test.

5.3.

NO => Utilizar Friedman test.

MUESTRAS RELACIONADAS. PRUEBA DE FRIEDMAN

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k
elementos de forma que los elementos de cada grupo sean lo ms parecidos posible entre s, y
a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos'', o bien
cuando a cada uno de los elementos de una muestra de tamao n se le aplican los k
''tratamientos''.

La hiptesis nula que se contrasta es que las respuestas asociadas a cada uno de los
''tratamientos'' tienen la misma distribucin de probabilidad o distribuciones con la misma
mediana, frente a la hiptesis alternativa de que por lo menos la distribucin de una de las
respuestas difiere de las dems. Para poder utilizar esta prueba las respuestas deben ser
variables continuas y estar medidas por lo menos en una escala ordinal. Hiptesis:
Hiptesis nula (H0): No existen diferencias entre los grupos.
Hiptesis alternativa (H1): Hay diferencias entre los grupos.
Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k
elementos de cada grupo a los k tratamientos:
Grupo\
Tratamiento

...

...

x11

x12

...

x1j

...

x1k

...

....

....

...

....

...

....

xi1

xi2

...

xij

...

xik

...

...

...

...

...

...

...

xn1

xn2

...

xnj

...

xnk

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k; a
continuacin se suman los rangos correspondientes a cada columna, siendo RJ la suma
correspondiente a la columna j-sima. Si la hiptesis nula es cierta, la distribucin de los
rangos en cada fila se debe al azar, y es de esperar que la suma de los rangos correspondientes
a cada columna sea aproximadamente igual a n (k + 1)/2. La prueba de Friedman determina si
las RJ observadas difieren significativamente del valor esperado bajo la hiptesis nula.
El estadstico de prueba es:

12
2
x=

( R j ) 3 n ( k +1 )
n. k ( k + 1 ) j=1
2
r

x r =Estadistico calculado del analisis de varianza por rangos de friedmann


n=Numero de filas

k =Numero de columnas
2

( R j ) =Sumade rangos por columna al cuadrado

Si Ho es cierta y el nmero de columnas y/o de filas es moderadamente grande la distribucin


de F se aproxima a una chi-cuadrado con k - 1 grados de libertad; de forma que se rechaza la
hiptesis nula para valores de

x 2r

superiores al valor crtico para el nivel de significacin

fijado.
5.4.

CARACTERSTICAS

X2r Se utiliza cuando:

Trabaja con datos ordinales.


Sirve para establecer diferencias.
Se utiliza para ms de tres tratamientos.
Las muestras son sacadas de la misma poblacin.
Para muestras pequeas: K = 3 - 4 y H =2 - 9; para muestras grandes: K = 3 - 4 y H =

> 9.
Asignar al azar a los sujetos a cada condicin.
Muestras igualadas (igual nmero de sujetos en cada condicin).
Se asignan rangos por condicin.
Se trabaja con tablas de doble entrada.

Pasos:

1. Ordenar las observaciones en funcin de los cambios advertidos despus del


tratamiento o tratamientos.
2. Asignar rangos del dato ms pequeo al mayor en funcin de las hileras.
3. Efectuar la sumatoria de los rangos en funcin de las columnas Rc y elevarlos al
cuadrado Rc2.
4. Aplicar la frmula de anlisis de varianza de doble entrada por rangos de Friedman.
5. Comparar el valor de X2r de Friedman con las tablas de valores crticos de
probabilidad propia, cuando la muestra es pequea. En caso de muestras grandes,
utilizar las tablas de valores crticos de ji cuadrada de Pearson.
5.5.
EJERCICIOS:
1. La asociacin de padres de un centro convoca sucesivamente tres reuniones dirigidas
a los padres de alumnos de un mismo grupo o clase, en las que se abordaron
respectivamente temas relacionados con el apoyo de la familia al estudio (Tema A), el
juego y el tiempo libre de los nios (Tema B), y la participacin de los padres en el
centro (Tema C). Si contamos los datos de asistencia a cada una de las tres reuniones
para los padres de alumnos de 6 clases, podemos afirmar que los tres temas atrajeron
de modo distinto a los convocados? ( = 0.05)
Tema A
3
3
3
2
3
3

Tema B
2
2
1
3
2
2

Tema C
1
1
2
1
1
1

SOLUCIN.
Dado que el nmero de sujetos es pequeo, deberemos utilizar una prueba no paramtrica, y
puesto que los casos se hayan relacionados, la prueba ms idnea es el anlisis de la varianza
de dos clasificaciones por rangos de Friedman. En primer lugar, plantearemos las hiptesis:
H0: No existen diferencias entre en la atraccin a los tres temas.
H1: Existen diferencias significativas entre en la atraccin a los tres temas.
El estadstico de contraste que emplearemos ser:
x 2r =

12
2

( R j ) 3 n ( k +1 )
n. k ( k + 1 ) j=1

Por lo tanto, calcularemos la suma de rangos para cada columna:


Tema A
3
3
3
2
3
3

Tema B
2
2
1
3
2
2

Tema C
1
1
2
1
1
1

RA = 17, RB = 12 y RC = 7. Sustituyendo:
x 2r =

12
( 172+ 122+7 2 )36 ( 3+1 )=8.33
63 ( 3+1 )

Comparamos el valor observado con el que nos ofrece la tabla, teniendo en cuenta que X2
sigue una distribucin de chi cuadrado con k-1 grados de libertad. Por tanto, el valor crtico
ser
0.9522 = 5.991
Puesto que el valor observado es mayor que el crtico, aqul entra en la regin de rechazo,
por lo que podemos rechazar con una confianza del 95% que existen diferencias
significativas en cuanto a la atraccin a los distintos temas.
2. Un investigador desea comparar los niveles de memoria en nios de 4, 6, 8, 10 y 12
aos despus de 3 diferentes tratamientos.
Eleccin de la prueba estadstica.
El modelo experimental tiene tres o ms muestras dependientes.
SOLUCION
Planteamiento de la hiptesis.
Hiptesis alterna (Ha). Hay diferencia significativa en nios de 4, 6, 8, 10 y 12 aos, despus
de aplicar 3 diferentes tipos de tratamiento.
Hiptesis nula (Ho). No hay diferencia significativa en nios de 4, 6, 8, 10 y 12 aos, despus
de aplicar 3 diferentes tipos de tratamiento.

Nivel de significacin.
Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.
Escala = 0 - 20

Aplicacin de la prueba estadstica.


Transformamos los valores en rangos de acuerdo con la prueba de Friedman, en funcin de
las hileras. Al valor ms bajo le corresponde el rango 1, respetando el orden hasta el dato que
tiene la cifra ms alta.
Rango1 = 8
Rango2 = 9
Rango3 =13
Calculamos la X2r de Friedman.

Se utiliza la tabla N para pruebas pequeas.


Con tres columnas y cinco hileras se compara el valor calculado de X2r de Friedman con la
tabla correspondiente de distribucin de probabilidad. Las cifras aproximadas al estadstico
calculado 2.8 = 0.367.
Decisin.
Como el valor de X2r calculado es igual a 2.8, la probabilidad es de 0.367, esto indica que es
menor que el nivel de significancia, por lo cual, se acepta Ha y se rechaza Ho.

Interpretacin.
Aceptada Ha, se acepta que entre los tres tratamientos existen distintos grados de memoria
adquirida. Se distingue notoriamente que el tratamiento A es menos eficaz, con respecto a los
otros dos tratamientos. Por otro lado, el tratamiento B ofrece mayores ventajas para la
adquisicin de memoria
VARIAS MUESTRAS INDEPENDIENTES: PRUEBA DE KRAUSKAL-WALLIS
Esta prueba estadstica de anlisis de varianza de entrada simple de Kruskal-Wallis es una
extensin de la prueba de U Mann-Whitney, en razn de que se usan rangos para su
aplicacin; por otra parte, este procedimiento se emplea cuando el modelo experimental
contiene ms de dos muestras independientes.

Dicha prueba se define matemticamente de la forma siguiente:


Dnde:
H = valor estadstico de la prueba de KruskalWallis.
N

tamao

total

de

la

muestra.

Rc2 = sumatoria de los rangos elevados al


cuadrado.
ni = tamao de la muestra de cada grupo.
L = ajuste dado por el ajuste de ligas o empates
de los rangos.
El ajuste L se calcula de la manera siguiente:
Dnde:
Li = valor de nmero de empates de un rango.
N = tamao total de la muestra.
Se utiliza cuando:

Cuando son diferentes tratamientos o condiciones.

Muestras pequeas.

Se utiliza escala ordinal.

Si las muestras se seleccionaron de las diferentes poblaciones.

Contrastar hiptesis (direccional o no direccional).


Pasos:
1.

Ordenar las observaciones en rangos de todos los grupos, del ms pequeo al mayor.

2.

Asignar el rango para cada observacin en funcin de cada grupo de contraste,


elabora la sumatoria de rangos, elevar al cuadrado este valor y dividirlo entre el
nmero de elementos que contiene (ni).

3.

Detectar las ligas o empates entre los rangos de cada grupo y aplicar la ecuacin (L)
para obtener el ajuste.

4.

Aplicar la ecuacin de Kruskal-Wallis y obtener el estadstico H.

5.

Calcular los rangos de libertad (gl): gl = K grupos - 1.

6.

Comparar el estadstico H, de acuerdo con los grados de libertad, en la tabla de


distribucin de ji cuadrada en razn de distribuirse de forma similar.

7.

Decidir si se acepta o rechaza la hiptesis.

Ejemplo:
Un investigador estudia el efecto benfico de cuatro sustancias anticonvulsionantes
(fenobarbital, difenilhidantoinato -DFH-, diacepam y clonacepam), para proteger contra la
muerte producida por un convulsionante, la tiosemicarbazida, la cual se manifiesta despus
de crisis clnica y tnica, respectivamente. El investigador elige al azar a 24 ratones de la
misma edad y peso y les inyecta anticonvulsionante previamente a la tiosemicarbazida. A
partir de este momento, inicia la cuenta en tiempo, hasta que mueren los ratones; adems
mide las observaciones en horas de tiempo transcurrido.

Eleccin de la prueba estadstica.


Las mediciones se realizan en horas, por lo que la variable puede ser continua y, en
consecuencia, una escala de intervalo; sin embargo, algunos ratones no murieron y el tiempo
est calificado nominalmente como infinito. Este obstculo impide concederle la calificacin
de escala de intervalo, por lo cual se elige una escala de tipo ordinal.
Planteamiento de la hiptesis.

Hiptesis alterna (Ha).


La proteccin de la muerte por drogas anticonvulsionante contra el frmaco convulsionante
tiosemicarbazida, se muestra diferente entre los cuatro grupos, y hay mejor proteccin por el
diacepam.
Hiptesis nula (Ho).
Las diferencias observadas en los cuatro grupos de frmacos anticonvulsionantes, para evitar
la muerte producida por la tiosemicarbazida, se deben al azar.

Nivel de significacin.
Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha
Tiempo

en

horas

que

tarda

Aplicacin de la prueba estadstica.

el

frmaco

en

causar

la

muerte

en

ratones.

De acuerdo con los pasos, se inicia con el ordenamiento de todas las observaciones a partir
del valor ms pequeo hasta el mayor y la deteccin de las ligas o empates. Arreglo de los
datos

para

asignar

rangos

detectar

las

ligas

empates.

Una vez efectuado el ordenamiento en rangos de las observaciones, se hacen las sumatorias
de los rangos. Para facilitar esta tarea, elabrese una tabla en la que sustituyan los datos.
Sustitucin por rangos. Observaciones de la primera tabla.

Se calcula el valor de ajuste por ligas con la siguiente frmula:

Con el ajuste de L, se procede a calcular el valor estadstico de la prueba de Kruskal-Wallis.

Calculamos los grados de libertad.


gl = K grupos - 1 = 4 - 1 = 3
El estadstico H calculado de 15.4, se compara con los valores crticos de ji cuadrada. En
seguida se busca en esa hilera la cifra de grados de libertad (3) hasta el nivel de significancia
de 0.05 y se observa el valor 7.82, hasta los crticos 11.34 y 16.27, donde se encuentra el
calculado. Esto quiere decir que la probabilidad de que exista una diferencia se halla a una
probabilidad de error entre 0.01 y 0.001.

Decisin.
Como el valor estadstico H tiene una probabilidad menor que 0.01 y ste es menor que el
nivel de significancia, se acepta Ha y se rechaza Ho.

Interpretacin.
Entre las drogas anticonvulsionantes, existe diferencia significativa en cuanto a la proteccin

de muerte a los ratones cuando se les inyecta el frmaco tiosemicarbazida. El diacepam se


manifest principalmente con los rangos ms altos y se muestra distinto de los dems
anticonvulsionantes (vase la siguiente figura). Sumatoria de rangos de las observaciones.

5.6.
BIBLIOGRAFA
Sprent P. Applied nonparametric statistical methods. 2nd Ed., Chapman-Hall, London,
1993:1-3.
Glantz SA. Primer of Biostatistics, 3th ed., McGraw Hill, New Yor, 1992
www.monografias.com/ED800Estadisticas_no_parametricas.

Das könnte Ihnen auch gefallen