Sie sind auf Seite 1von 182

U niversidad V eracruzana

FACULTAD DE ESTADÍSTICA E INFORMÁTICA


ESPECIALIZACIÓN EN MÉTODOS ESTADÍSTICOS

MANUAL DE ESTADISTICA NO
PARAMETRICA CON STATA Y STATISTICA

TRABAJO RECEPCIONAL

QUE COMO REQUISITO PARCIAL PARA OBTENER EL


DIPLOMA DE ESTA ESPECIALIZACIÓN
PRESENTA:

Ma, Del Rosario González Torruco

TUTOR:
Julián Felipe Díaz Camacho

XALAPA, VER., FEBRERO DEL 2000


' El Comité Académico de la Especialización en Métodos Estadísticos y el
Tutor de este trabajo recepcional, autorizan la impresión y la constitución del
jurado para la defensa.

C O O R D IN A D O R D E L A
E S P E C IA L IZ A C IÓ N E S T A D ÍS T IC A E IN F O R M Á T IC A
DATOS DEL AUTOR

María del Rosario González Torruco, nació en la ciudad de Xalapa,


Ver., el día 17 de diciembre de 1974. Realizó estudios primarios,
secundarios y de bachillerato en su ciudad natal. En 1994 ingresó a la
carrera de Estadística de la Universidad Veracruzana, de la que egresó en
1998.
DEDICATORIAS

A mis padres: (Angel y Placida).


Por la confianza que siempre tuvieron en mí, por el apoyo y el esfuerzo tan
grande que han hecho todo estos años para que saliera adelante, pero sobre
todo por su amor, porque todo lo que he lo grado se los debo a ellos.

A mis hermanos: (Angel y Alma Delia).


Por el cariño que me han brindado, su compañía y por todos los momentos
felices que hemos pasado juntos.

A mis sobrinos: (Angel, Monserrat, Alejandro, Beatriz y Carolina).


Que con sus sonrisas han alegrado mi vida.

A Ismael:
Por tu amor y el apoyo incondicional que me has brindado y sobre todo los
consejos que me has dado los cuales me han hecho ver la vida de otra
manera.

A todos ustedes que son lo más valioso que tengo en la vida


AGRADE CIMIENTOS

A Dios, Por darme la vida y haberme permitido llegar hasta donde estoy.

A mis amigos, que en algunos momentos de la vida y en el transcurso de la


Especialización me han apoyado y brindado su amistad. Cecilia, Juliana,
Maximina, Lucia, y Luis Carlos.

Al L.I. Saúl Domínguez Rodriguez y al Ing. José Luis Cardona Vicencio por
el apoyo brindado para la realización de este trabajo.

Al Dr. Mario Miguel Ojeda Ramírez.

Al Prof. Víctor Méndez Sánchez.

A todos los catedráticos de la Especialización.

En especial al L.E. Julián Felipe Díaz Camacho por su apoyo y confianza


que siempre me brindo, sobre todo en el transcurso de la Especialización, y
la dedicación prestada para la realización de este trabajo ya que tal vez sin
su ayuda no hubiese sido posible lograrlo.

Y a todas las personas que en cierta forma alguna vez me ayudaron y dieron
consejos para salir adelante.

Gracias!
G e n e r a c ió n : 1999 SEDE: Xalapa.

T itulo :
Manual de estadística no paramétrica con STATA y STATISTICA

T ipo de T rabajo :

Reporte
Monografía ✓
Desarrollo Estadístico

A utor : González Torruco María del Rosario

T utor : l e Julián Felipe Díaz Camacho

Resumen :

Este trabajo se realiza con el fin de apoyar a los estudiantes de la


Licenciatura en Estadística, así como a los alumnos de la Especialización en
Métodos Estadísticos, en la materia de Métodos no paramétricos.
Por lo que se presentan algunas de las técnicas no paramétricas
utilizadas, describiendo cada una de ellas con la solución de un problema resuelto
manualmente seguido de las salidas que presentan los paquetes STATA y
STATISTICA.

/
T écnicas usadas :

1. Técnicas Descriptivas
2. Gráficas Tradicionales
3. Análisis Exploratorio
4. Técnicas de Mu estreo
5. Análisis de Inferencia Básica
6. Regresión
7. Análisis de varianza y covarianza
8. Métodos rio paramétricos
9. Análisis Multivariado
10. Control de caridad
11. Series de Tiempo
12. Modelos Especiales
13. Técnicas Avanzadas
14. Temas de computo o matemáticas
CONTENIDO

1. INTRODUCCIÓN 1

1.1. La inferencia paramétrica y la no paramétrica. 1


1.2. Escalas de medición. 3

2. PRUEBA DEL SIGNO 5


2.1. Prueba del signo para una muestra. 5
2.2. Prueba del signo para una muestra. Aproximación a la Normal. 12
2.3. Prueba del signo para muestras relacionadas. 20
2.4. Prueba del signo para muestras relacionadas. Aproximación a la
Normal. 26

3. PRUEBA DE RANGO CON SIGNO DE WILCOXON 32


3; 1. Prueba de rango con signo para una muestra ^ 32
3.2. Prueba de rango con signo para comparar muestras relacionadas^
(Wilcoxon). 39
3.3. Prueba de rango cj)n signo para comparar muestras relacionadas, s
Aproximación a la Normal. (Wilcoxon). 45
50

4. PRUEBA DE MCNEMAR 51

5. PRUEBA DE SUMA DE RANGOS 58


5.1. Prueba de suma de rangos para muestras independientes. (Wilcoxon). 58
5.2. Prueba de suma de rangos para muestras independientes.
Aproximación a la Normal. (Wilcoxon). 66
5.3. Prueba U de Mann-Whitney para muestras independientes 72
?0
6. - PRUEBA H DE KRUSKAL-WALLIS PARA DISEÑOS COMPLETAMENTE
ALEATO RIZADOS 81

7. - PRUEBA DE Fr DE FRIEDMAN PARA DISEÑOS EN (C


BLOQUES ALEATO RIZADOS 90

8.- EVALUACION DE BONDAD DE AJUSTE 96


8.1. La prueba ji-cuadrada para bondad de ajuste. 96
8.2. Prueba de Kolmogorov-Smirnov para bondad de ajuste. 122
8.2.1. Prueba de Kolmogorov-Smirnov para una muestra. 122
8.2.2. Prueba de Kolmogorov-Smirnov para dos muestras
independientes. 126

9. - METODO DE CORRELACION DE RANGOS 133


9.1 Coeficiente de Correlación de Spearman. 133
9.1 Coeficiente de Correlación de Kendall. . 140

ANEXOS

BIBLIOGRAFÍA
I. INTRODUCCIÓN

En este apartado se presentan breves comentarios para establecer la


diferencia entre la inferencia paramétrica y la no paramétrica. Así
‘ también, una breve descripción de las escalas de medición.
*•

1.1. La inferencia param étrica y la no paramétrica.

En una gran parte del trabajo de inferencia estadística se supone que


las observaciones provienen de una población normalmente distribuida. En
muchos trabajos donde las variables medidas son magnitudes, pesos,
concentraciones, o algunas otras mediciones que son dadas en una escala
fuerte (escala de razón o intervalo), suponer normalidad resulta muy
razonable. Es por esto que gran parte de la teoría estadística para tales
casos se ha hecho popular, las aplicaciones de la metodología derivada de
este supuesto se ha multiplicado vigorosamente. Sin embargo, hay
numerosos casos en los que no es razonable la suposición de normalidad. En
tales casos, el utilizar procedimientos que los supongan nos pueden llevar a
inferencias erróneas. G.E. Noether (en R. Hogg, 1978) menciona al respecto:
“...si la suposición de normalidad no se satisface, los procedimientos
estándar pueden estar muy lejos de ser óptimos”.

La teoría y los métodos que hacen referencia al tipo de distribución de


donde provienen las muestras, de manera que la distribución se identifica
por parámetros, como ocurre con las suposiciones de normalidad y
homogeneidad, se denominan teoría y métodos paramétricos. Del mismo
modo a la parte de la Estadística que aborda los problemas bajo estas
suposiciones, referentes a la forma de la distribución y los parámetros que
la identifican, se le denomina Estadística Paramétrica.

La Estadística no Paramétrica se encarga de los aspectos teóricos y


de los métodos que no requieren supuestos acerca de la identificación con
parámetros de la forma de la distribución de la población donde provienen
la muestra. El término “no paramétrica “ (nonparametric) originalmente
fue propuesto por Wolfowitz en 1942. Sugirió este termino para indicar que
la población baio estudio no nuede ser especificada ñor un número finito de
parámetros. En este sentido, el término ha sido muy desafortunado ya que
se ha constituido en objeto de múltiples críticas debido a que las técnicas no
paramétricas pueden también ser usadas para construir intervalos de
confianza sobre parámetros. Más aún, las llamadas técnicas no

i
paramétricas son igualmente aplicables a familias paramétricas de
distribuciones. De esta forma, el campo preciso de la aplicación de la
estadística no paramétrica se ha constituido en un tema controvertido. Sin
embargo, podemos decir que la teoría y los métodos no paramétricos han
mostrado ser apropiados para problemas donde hay duda sobre la
veracidad de los supuestos acerca de la distribución que identifica a la
población de donde proviene la muestra.

En conclusión, podemos decir que tanto al hacer uso de pruebas


paramétricas como al usar pruebas no paramétricas, especificamos un
conjunto de^upuestos) Estos, en las jmiebas no paramétricas, permiten el
tratamiento de\ observaciones obtenidas bajo, condiciones donde la
normalidad v la homocedasticidad no pueden verificarse de manera
inmediata. Entendemos de esta forma la gran importancia de estas
técnicas en las áreas de ciencias sociales y de la conducta, ya que son
posibles respuestas a problemas que inicialmente fueron concebidos como
paramétricos, pero en los supuestos no se cumplían. Otros problemas que
también se ubican en el área de aplicación dé las técnicas no paramétricas
son las que se refieren a la verificación de supuestos sobre la forma de la
distribución, como normalidad, simetría y aleatoriedad, entre otros.
Los métodos no paramétricos no se deben de emplear si se pueden
aplicar eficientemente los métodos paramétricos. Esto se debe a que las
pruebas no paramétricas son de potencia relativamente baja en
comparación con las pruebas paramétricas. Por ^ál razón, si se va a
realizar una prueba no paramétrica, se recomienda elegir muestras de gran
tamaño, ya que al aumentar el tamaño de muestra se incrementa la
potencia de la prueba, con un nivel de significancia dado.

No obstante, los métodos no paramétricos tienen varias ventajas


sobre los métodos paramétricos:
❖ Las suposiciones para su empleo son menos estrictas que las de los
correspondientes métodos paramétricos.
❖ Los métodos no paramétricos pueden aplicarse en forma muy fácil a
todas aquellas observaciones que se definen sobre una escala
ordinal.
❖ Los cálculos por efectuar son más fáciles cuando se comparan con
los de los correspondientes métodos paramétricos.

2
Dos desventajas de los métodos no paramétricos son los siguientes:

❖ Ignoran cierta cantidad de información.


❖ A menudo no son tan eficientes como las pruebas paramétricas.
Esto es, aceptan la hipótesis nula con mayor frecuencia de lo
deseado.

1.2 Escalas de Medición.

Las variables bajo estudio pueden emanar de conceptos a veces


simples de medir, como el peso de un fruto; a veces complejos, como el
rendimiento escolar de un estudiante. Medir variables nos obliga a
referirnos a un sistema llamado de medición o escala de medición, el cual
no indicará las manipulaciones aritméticas que pueden hacerse a nuestras
mediciones.

Cuando nuestras mediciones son magnitudes, pesos, concentraciones,


etc., la escala de medición resulta muy natural en relación con el manejo
numérico. Por ejemplo, si medimos el peso o la estatura de un conjunto de
individuos; podemos muy bien establecer relaciones entre dos individuos;
incluso podemos decir qué tanto es más alto o pesado uno de otro. Además
de esto, entendemos el significado preciso del cero en el sistema. A la escala
de medición que usamos para casos como este se le llama escala de
proporción o de razón. El nombre se debe a la posibilidad de establecer una
razón entre las mediciones hechas a dos objetos medidos en tal escala. Las
medidas resultantes de esta escala pueden manejarse con todas las
operaciones aritméticas y tiene sentido’ hablar de promedio aritmético y
geométrico, desviación y coeficiente de variación en un conjunto de
observaciones.

Cuando el cero no tiene una interpretación precisa en la escala de


medición, es decir, cuando en la escala el cero es fijado arbitrariamente y
una vez fijado se preservan en la escala todas las otras propiedades de la
anterior, se dice que la escala de medición es la escala de intervalo. En este
sistema se puede establecer el orden entre los objetos medidos y se puede
indicar la distancia que hay de uno a otro. El ejemplo clásico de esta escala
es la de los grados centígrados o los grados fahrenheit, en la cual el cero es
un valor arbitrariamente colocado, pero carece de significado matemático.
En esta escala, las diferencias entre dos mediciones puede manipularse con
todas las operaciones aritméticas y se puede hablar de media y desviación

3
estándar. Para los resultados de la medición no debe utilizarse la división
debido a que el cero no está bien definido y no se aplican las razones entre
dos medidas, pero sí lo está la diferencia o intervalo, de allí su nombre: Las
dos escalas anteriores se conocen como escalas fuertes.

Si a un conjunto de objetos, únicamente podemos aplicarles una


escala de medición que los enumere, de tal forma que en la enumeración se
preserve el orden de los objetos de acuerdo con la variable, decimos que la
medición está en escala ordinal. En la realidad hay muchas variables que
emanan de conceptos complejos que sólo pueden ser medidos en esta escala;
por ejemplo la agresividad: nada agresivo, poco agresivo, agresivo, muy
agresivo. También se presentan muchas situaciones donde conviene asignar
un número de orden a los objetos que son medidos en alguna de las escalas
mencionadas anteriormente. Los números que se utilizan para medir en
escala ordinal no son adecuados para operaciones aritméticas, solo
representan un orden, de allí viene el nombre de la escala. La Estadística
no Paramétrica juega un papel muy importante en esta escala.

La escala de medición más débil es la denominada escala nominal.


En esta escala sólo se permite clasificar los objetos en categorías. Ejemplos
de variables que solamente pueden ser medidas en escala nominal son:
sexo, estado civil y religión. En este caso, los números que son el producto
de la medición sólo son etiquetas para clasificación y no se pueden hacer
operaciones aritméticas o de orden con ellos.

También en esta escala se utiliza mucho la Estadística no


Paramétrica. De hecho, es sorprendente la váriedad de métodos que
utilizan los resultados de mediciones en las escalas ordinal y nominal,
haciendo referencia, sobre todo en escala nominal, a la frecuencia con que
ocurre cada resultado posible.

4
2. PRUEBA DEL SIGNO

En este apartado describiremos una alternativa no paramétrica de la


prueba t de una muestra, de la prueba t para dos muestras relacionadas y
las correspondientes pruebas para muestras de tamaño grande. Como
alternativa de la prueba t de una muestra o de la correspondiente prueba
para muestras grandes, la prueba del signo se aplica cuando muestreamos
una población simétrica, de tal manera que la probabilidad de obtener un
valor muestral menor que la media y la de un valor mayor son iguales a
(¥¿). En general, ya que con frecuencia la simetría es difícil de verificar con
muestras pequeñas o de tamaño regular, podemos formular las hipótesis en
términos de la mediana Ji poblacional.

2.1. Prueba del signo para una muestra.

Recordemos que los procedimientos que se utilizaron en la estadística


paramétrica para probar las hipótesis nulas de que /x = ju0 son válidas soló
si la población es aproximadamente normal o si la muestra es grande. Sin
embargo si n < 30 y la población decididamente no es normal se debe
recurrir a una prueba no paramétrica.

La prueba de los signos se utiliza para probar hipótesis de una


mediana poblacional. En el caso de muchos procedimientos no
paramétricos, la media se reemplaza por la mediana como el parámetro de
ubicación pertinente bajo prueba. La mediana representada por ju se define
de tal forma que

P(X>£) = P(X</Z) = ^ ■ 1

Al probar la hipótesis nula Ho: ju= juo contra una alternativa


apropiada, sobre la base de una muestra aleatoria de tamaño n, se
reemplaza cada valor muestral excede a juo con un signo más y cada valor
muestral menor que juo con signo menos. Si la hipótesis nula es verdadera
y la población es simétrica, la suma de signos más debe ser
aproximadamente igual a la suma de los signos menos. Cuando un signo
aparece con mayor frecuencia de lo que debería, conchase en el azar
únicamente, se rechaza la hipótesis de que la mediana poblacional es
igual a. juo.

5
En teoría la prueba del signo es aplicable sólo en situaciones donde
fi o no puede igualar el valor en cualquiera de las observaciones. No
obstante que hay una probabilidad cero de obtener una observación
muestral exactamente igual que fio cuando la población es continua, a
pesar de que en la práctica un valor muestral igual que fio ocurrirá con
frecuencia debido a una falta de precisión al registrar los datos. Cuando se
observan valores muéstrales iguales que fio estos se excluyen del análisis y
el tamaño de muestra se reduce en forma correspondiente.

El estadístico de prueba apropiado para la prueba de los signos es la


variable aleatoria binomial X, que representa el número de signos más en
la muestra aleatoria. Si la hipótesis nula resulta de que f i - f i o es
verdadera, la probabilidad de que un valor muestral resulte de un signo
más o un signo menos es igual a H. Por lo tanto, para probar la hipótesis
nula de que f i - f i o, en realidad se está probando la hipótesis nula de que el
numero de signos más es un valor de una variable aleatoria que tiene una
distribución binomial con el parámetro p - . Los valores p para ambas
alternativas unilateral y bilateral puede entonces calcularse utilizando la
distribución binomial.

A continuación se resume el procedimiento para probar la hipótesis


mediante el empleo de la prueba de los signos. \

1. Plantear la hipótesis nula Ho: f i - f i o.

2. Plantear la alternativa de interés Hi: fi< fio, Hi: fi * fio,


Hi:fi> fio.

3. Fijar el nivel de significancia a


4. Seleccionar el estadístico de prueba apropiado
5. Realizar los cálculos para determinar n, x y n/2. Luego:

a) Si la hipótesis alterna es del tipo Hi:/7< fio, se calcula la


probabilidad

P(X < x cuando p =

6
b) Si la hipótesis alterna es del tipo Hi:/í > o, se calcula la
probabilidad

P=(X>x cuando p = -)
2

c) Si x<n/2 y la hipótesis alternativa es del tipo Hi: //V juo, se calcula


la probabilidad

P = 2P(X <x cuando p= ~ )

c’).Si x> n /2 y la hipótesis alternativa es del tipo H i ¿ío, se


calcula la probabilidad

P = 2P(X>x cuando p = i)

6. Decisión: Se rechaza Ho si P < a .

y
Ejemplo No. 1. Prueba del signo para una muestra.

Utilice la prueba de los signos para probar la hipótesis de que la


mediana de las temperaturas máximas diarias en cierta ciudad de los
Estados Unidos, durante el mes de diciembre es igual a 48 grados
Fahrenheit. Las siguientes temperaturas máximas diarias fueron
registradas en 20 días seleccionados aleatoriamente durante dicho mes: 47,
46, 40, 40, 46, 35 34, 59, 54, 33, 65, 39, 48, 47, 46, 46, 42, 36, 45, 38. Realice
la prueba al nivel a =0.05

Solución:

1. - H0: i* —48

2. -IL : .«*48

3. - Nivel de significancia, a = 0.05

4. - Estadístico de prueba. Variable binomial x con p= V.i

7
5.- Cálculos. Se reemplaza cada valor con el símbolo “+” si excede a 48, con
el símbolo si es menor que 48 y se descarta la medición que es igual
a 48, obteniéndose

47 46 40 40 46 35 34 59 54 33 65 39 48 47 46 46 42 36 45 38
48 48 48 48 48 48 48 48 48 48 48 4 & 48 48 48 4 8 , 48 48 48 48
- — — — — - - + + + - o - — — — - - -

n
para lo cual n = 19, x =3 y — = 9.5.Como la hipótesis alterna es del tipo Hi:
2
n
* 48 y x < —, se calcula la probabilidad

P = 2P(X < x, cuando p= l/¿) = 2¿6(x,19,l/2)= 2(0.0022)=0.0044


x=0

6.- Decisión: Se rechaza Ho si P < a.


Como (P= 0.0044) < (a= 0.05) entonces rechazamos Ho y se concluye
que las temperaturas diarias en cierta ciudad de los Estados Unidos
durante el mes de diciembre es diferente a 48 grados Farenheith.

□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1.1 Teclear "STATA"


1.2 Teclear "clear"
1.3 Teclear "input x "(nombre de la variable)
1.4 Introducir los datos como a continuación se muestra.

temp
1. 47
2. 46
* 3. 40
4. 40
5. 46
6. 35

8
7. 34
8. 59
9. 54
10. 33
11. 65
12. 39
13. ‘48
14. 47
15. 46
16. 46
17. 42
18. 36
19. 45
20. 38
21. end

> Instrucción para realizar la prueba y resultados que proporciona


el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

• signtest temp=48

Obteniéndose como resultado la Tabla 2.1

Test: Equality of medians (Matched-Sample Sign Test)


Result of temp - (48)_______________________________
Positive_______ 3 __________________________
Negative_____ 16 _____________ . ________
Total_______ 19 ___________■ '
one-sided binomial Pr(k >= 16) - 0.0022_________
two-sided binomial Pr(k >= 16) = 0.0044
Tabla 2.1. Resultados de la prueba de hipótesis que proporciona
el paquete STATA.

9
□ S olución con el paquete STATISTICA. Sign Test.

> Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

1.-Entramos al modulo N onparam etrics/Distrib

i STATISTICA Module Switcher


II ____
1
1jSfl Basic Statistics Norpaiamelnc tasti.
Ibotwtrn arid i"Ah.n
«
cioup d'teenee test' •Lie. JAVIE R JU A R E Z S A N C H E Z "
(ggANOVA/MANOVA co'reldtrons. ubseived- UNIDAD ACADEMICA DE ECONOMIA Y
|. Multiple Regression
expected X*. );
Oídme) descriptr/e
ESTADISTICA
fifi
[A ¿ Nonlinear Estimation
zr?

statists Ipetceriilesj UNIVERSIDAD VERACRUZAN.A


metían, mode.
Time Seties/Forecasting Fittmg various
continuous and discrete
¡ip)- Cluster Analysis
drstfbutions to data:
Ifill Data Management/MFM
Factor Analysis

1 agirti 1 Switch To 1 Customize list..


I
I \Jh End t Switch To Cancel
J

2.- Capturamos nuestra base de datos de la forma siguiente:

1^¡$2STATISTICA: Nonparanl
I ¡frr File £dil View Analytijl
d
B Ppl ííP] l|l
rV
vA
iuL
r1 11
i
TEMPER , -
Ilf 47.0001 48.000
mí: 46.000 48.000!
3 40.000' 48.000!
4 40.000 48.000!
S' 46,000 48.000!
■m 35.000 48.000!
m 34.000 48.000!
e 59.000 48 . 000:
Mi .54.000. 48.000!
m 33.000 48.000!
■xi 65.000 48.000!
12 39.000. 48.000!
il3 48.000 48.000!
im 47.000 48,000!
m 46,000 48.000!
Ü6: 4.6,000- 48.000!
12] 42.000 48.0 00!
n 36,000 48.000:
m

10
3.- Seleccionamos la opción Sign Test

fSj Non paiametric Statistics

staisi ^ Oislnbution [illm g


OK

Cancel
Nionpaiaoietric Statistics:
[HH 2 s 2 T ablet X ! /V! /PhP. M cNem ai. Fithei e x a c t; Select the
nonpar¡metiic
Q]ji(l] Observed versus expected X 2
| Correlations (Spearman. ICendall tau. gamma)
¡f.tjj W ald-Wolfowitz runs test ■ •
| Mann-Whitney U test
¡|%|i Kolmogorov-Smirnov two-sample test
jtStij Kruskal-WaUis A N O V A . median test
Sign lesi
W ilcoxon matched pairs test
[¡§1 Friedman A N O V A t Kendall's concordance
Open Data
>il!l Cochran Q test
srirt» :
j j y Ordinal descriptive statistics (median, mode. ...) : cusís 3. iiiis

4.- Seleccionamos nuestras variables

Sign T est

V ai tables iOK*
Variable lisi 1 TEM PE Cancel
Variable lisi 2 M EDIAN

sitici I o j
Box & whisker orris * < 0 w 1

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 2.2.

M
F-r............ ................................ ......
l^Sign Tesi (nonp9.sta] HüHSI
iü NONPAR No o£
i STATS Nor.-tie3 ~r Z p-level P
..........19 84.21053 2.752989 i .005905
‘Li r
Tabla 2.2. Resultados de la prueba de hipótesis que proporciona
el paquete STATISTICA.

11
2.2 Prueba del signo para una muestra. Aproximación a la Normal.

Siempre que n>10, las probabilidades binomiales con p=l/2 se puede


aproximar por la curva normal. En tal caso se tiene

¿=np y (j — \/npq

Consecuentemente

Z = x±0¿ _ nP ~N(0,1)

Supóngase, por ejemplo, que se desea probar la hipótesis:

Ho: ju = p0

■Hi : / / < £ „

al nivel de significancia de «=0.05 para una muestra aleatoria de tamaño


n=20 que resulta en x=6 signos más. Al utilizar la aproximación de la curva
normal con:

p = np = (20) (0.5) = 10

«=\/npq = V(20)(0.5)(0.5) =2.236

Como la hipótesis alterna, es del tipo: Hi: p < p 0 se calcula la probabilidad

P=P(X<x cuando p = V*)

=P(X<6)

x + 0.5-np 6 + 0.5-10y
=P
( '¡ñpq 2.236 ,

12
=P(Z<-1.57) = 0.0582

Decisión: Se rechaza H0 sí P < a . Como (P=0.0582) > (a=0.05),


^ entonces la hipótesis nula no se rechaza.

Ejemplo No 2. Prueba del signo para una muestra. Aproximación a


la Normal.

Los siguientes datos son los tiempos de ignición de ciertos materiales


de tapicería expuestos al fuego, dados a la más cercana centésima de
segundo:

2.58 4.79 5 .50 6.75 2.65 7.60 11.25 3.78 4.90 5.21
2 .5 1 - 6.20 5.92 5.84 7.86 8.79 3.90 3.75 3.49 1.76
4.04 1.52 4.56 8.80 4.71 5.92 5.33 3.10 6.77 9.20
6.43 1.38 2.46 7.40 6.25 9.65 8.64 6.43 5.62 1.20
1.58 3.87 6 .90 4.72 9.45 5.09 7.41 1.70 9 .70 6.85
4.32 4.54 1.47 3.62 12.80 4.11 7.95 6.40 5.11 2:80
2.20 5.12 2.11 2.46 1.42 6 .37 10.60 3.24 4 .50 7.35
4.19 5.15 2.32 8.75 1.92 5.40 3.81 1.79 2 .50 11.75

Utilice la prueba del signo para probar la hipótesis nula de que m = 6.50

segundos contra la hipótesis alterna de que T


í < 6.50 segundos. Utilice a -

0. 05.

Solución:

1. - H0: y = 6.50
2 - Hi: ¿ < 6.50

3. - Nivel de significancia, a = 0.05

4. - Estadístico de prueba. Aproximación de la normal a la binomial.

5.- Cálculos. Comparando los valores con y = 6.50, obtenemos

13
- — . — + — + + — — —

— — — — + + - — — -

— — — + - - — — + +
— — — + — + + — - —

— — + — + - + - + +
— ' __ — — + - + — - — ■

— — — — - - + - - +
- — - + — - — — - +

Para lo cual n= 80, x= 22. Utilizando la aproximación a la normal tenemos:


jj - np = 80(0.5) = 40 y cr = yfñpq = y¡S0(ÓS)(pS) = 4.472

Como la hipótesis alterna es del tipo Hi: ¡í < 6.50 y x= 22, calculamos la

probabilidad

P = P (X<x cuando p = 0.5) = P(X<22)

r x + 0 .5 -np ■22 + 0.5-40^


=P =P(Z<-3.91)
^fñpq 4.472
V

- 0.0002 tC

6.- Decisión. Se rechaza Ho s i C o m o ( P = 0.0002) < (a=0.05) entonces


rechazamos Ho y concluimos que los tiempos de ignición de ciertos
materiales de tapicería expuesto al fuego es menor que 6.50.

14
□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1.1 Teclear "STATA”


1.2 Teclear "clear"
1.3 Teclear "input x" (nombre de la variable)
1.4 Introducir los datos como a continuación se muestra.

Input tiempo

tiempo
1. 2.58
2. 2.51
3. 4.04
4. 6.43
5. 1.58
6. 4.32
7. 2.2
8. 4.19
9. 4.79
10. 6.2
11. 1.52
12. 1.38
13. 3.87
14. 4.54
15. 5.12
16. 5.15
17. 5.5
18. 5.92
19. 4.56
20. 2.46
21. 6.9
22. 1.47
23 2.11
24. 2.32
25. 6.75 .
26. 5.84

15
27. 8.8
28. 7.4
29. 4.72
30. 3.62
31. 2.46
32. 8.75
33. 2.65
34. 7.86
35. 4.71
36. 6.25
37. 9.45
38. 12.8
39. 1.42
40. 1.92
41. 7.6
42. 8.79
43. 5.92
44. 9.65
45. 5.09
46. 4.11
47. 6.37
48. 5.4
49 11.25
50. 3.9
51. 5.33
52. 8.64
53. 7.41
54. 7.95
55. 10.6
56. 3.81
57. 3.78
58. 3.75
59. 3.1
60. 6.43
61. 1.7
62. 6:4
63. 3.24
64. 1.79
65. 4.9
66. 3.49
67. 6.77
68. 5.62
69. 9.7
70. 5.11
71. 4.5
72. 2.5
73. 5.21
74. 1.76
75 . 9.2
76. 1.2
77. 6.85
78. 2.8
79. 7.35
80 11.75
80. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATA, se obtiene mediante la instrucción:

. signtest tiempo=6.50

Obteniéndose como resultado la Tabla 2.3

Test: Equality of medians (Matched-Sample Sign Test)


Result of tiempo - (6.50)______________________________
Positive_______ 22_____'______________________________ _
Negative 58___________________________________
Total________ _80________________________________
one-sided binomial Pr(k >= 58) = 0.0000__________ _____
two-sided binomial Pr(k >= 58) - 0.0001_________________ ___
Tabla 2.3. Resultados de la prueba de hipótesis que proporciona
el paquete STATA.

17
□ Solución con el paquete STATISTICA. Sign Test.

> Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

1.-Entramos al modulo Nonparametrics/Distrib

T A T I 5 T I C A Module Switcher ¡Eli


Basic Statistics ^ Norpaiametnc testi
'.between arsi v>ähn
'growdiferene«tests,
^ ANOVA/M ANOVA co'relaficns. observed
expected/? I
m I .-:- Multiple Regression Sí“? Ordinal doscnptiva
statistics [percentfc....... -
Nonlinear Estimation
.metían, rnode..;,,);. . , ,
fi Time Series/Forecasting Fitting various
continuous ar.d d.screte
tu p F Cluster Analysis ®; distributions to data;"- / '
, |Ñj Data Management/MFM
i® 5 ^ : Factor Analysis ■;*:

Swrtrh In

E.ml & Swilili T u


Customize lis t..

Cancel'
J

2.- Capturamos nuestra base de datos de la forma siguiente:

% S T A T IS T IC A ; N on p aran
II¡jfr; Eile Edit V ie w ó n o ly d l
1 1 1 -7 5 P|
¿ ja fll
Nuri1................................. ........ ............... 11
VAlJ
2 1
M E D IA N 1
T j 2 , 580 6 . 500
2 2 ,5 1 0 6 . 500
3 4 ,0 4 0 6 . 500
TT 6 ,4 3 0 6, 500
5 1 ,5 8 0 6 , 500
:6 4 ,3 2 0 6 , 500
7 2 ,2 0 0 6 . 500
'8 4 .1 9 0 6 . 5 0 0;
T I 4 ,7 9 0 6 . 50 0
a oí 6 .2 0 0 6. 50 0
;i i 1 .5 2 0 6. 500
1 ,3 8 0 6 , 500
13 3,8 7 0 6, 500
T a 4 ,5 4 0 1 6, 500
g l 5.1 2 0 6 . 500
¡L jg 5.1 5 0 6 ; 500;

18
5 .5 0 0
5 .9 2 0 1
6. 50 0
6. 50 0
BIBLIOTECA
c JA V IE R JU A R E Z S A N C H E Z '
ífÓAÜ ACADEMICA Of. ECONOMIA Y
ESTADISTICA
18 «*iV AJ) V ErKArCíUJ Z A N A
3.- Seleccionamos la opción Sign Test

Nonpa ia melric Statistics

3 OK I
< & Nonaarametiic
»«•<« stat* Distribution fitting
, ,, J
'#„, cáíÉkát '
Honpararftetric Statistics:
cE2E2J
uco2 x 2 T ablet X * / W P h ? . McNemat. Fither exact.: Select the des.red
nonparametnc
w □ bseived versus expected X2 lechn-qns
Correlations (Spearman. Kendall tau. gamma)
EÍB
E53W ald-Wolfowitz runs test
Mann-Whitney U test

>'£l
Ein Kolmogorov-Smirnov two-sample test
Kruskal-Waflis A N O V A , median test
Sign test
W ilcoxon matched pairs test

HI Friedman A N O V A & Kendall’s concordance


SSSSi,Cochran Q test £ ? Open Data
PIDIO

Ordinal descriptive statistics (median, m o d e ,...]


sita „ Oâ
cans í St

4.- Seleccionamos nuestras variables

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 2.4.

Tabla 2.4. Resultados de la prueba de hipótesis que proporciona


el paquete STATISTICA.

19
2.3 Prueba del signo para muestras relacionadas.

Se puede también utilizar la prueba de los signos para probar la


hipótesis nula jux-jL¡2=d0, para observaciones apareadas. Aquí se
reemplaza cada diferencia, di, con un signo más o menos según las
diferencias ajustadas, d¡-do, sean positiva o negativa. A lo largo de esta
sección se ha asumido que las poblaciones son simétricas. Sin embargo, aun
sin las poblaciones están cargadas a un lado, se puede llevar a cabo el
mismo procedimiento de prueba, pero las hipótesis se refieren a las
medianas poblacionales más que las medias.

Ejemplo No. 3 Prueba del signo para dos muestras relacionadas.

Se afirma que una nueva dieta reducirá el peso de una persona en 4.5
kilogramos en promedio en un período de dos semanas. Los pesos de diez
mujeres que siguieron esta dieta se registraron antes y después del período
mencionado y se obtuvieron los siguientes datos:

Mujer 1 2 3 4 5 6 7 8 9 10
Peso 58.5 60.3 61.7 69.0 64.0 62.6 56.7 63.6 68.2 59.4
Antes
Peso 60.0 54.9 58.1 62.1 58.5 59.9 54.4 60.2 62.3 58.7
Después

Utilice la prueba de los signos, al nivel de significancia de 0.05 para probar


la hipótesis de que la dieta reduce la mediana del peso en 4.5 kilogramos
contra la hipótesis alternativa de que la mediana de la diferencia en peso es
menor que 4.5 kilogramos.

Solución:

1. - H0: x/i _ jj2= 4.5


2. -H,: „ „ <4.5
3. - Nivel de significancia, a = 0.05

4. - Estadístico de prueba. Variable binomial X con p=l/2.


5. - Cálculos: Se reemplaza cada diferencia positiva con un símbolo “+” y
cada diferencia negativa con un símbolo y obtenemos.

20
58.5 60.3 61.7 69.0 64.0 62.6 56.7 63.6 68.2 59.4
60.0 54.9 58.1 62.1 58.5 59.9 54.4 60.2 62.3 58.7
-1.5 5.4 3.6 6,9 5.5 2.7 2.3 3.4 5.9 0.7
-4.5 -4.5 -4.5 -4.5 -4.5 -4.5 -4.5 -4.5 -4.5 -4.5
- ■+ - + + - - — + -

Para lo cual n=10, x=4. Ahora, como la hipótesis alterna es del tipo Hi:
„ _ u < 4.5, se calcula la probabilidad

P = P (X < x cuando p = 1/2) = P(X < 4)


= ¿¿>(x,10,l/2)=0.3770
x=0

6. Decisión: Se rechaza H0 sí P < a . Como P(=0.3770) > (a=0.05)


entonces no se rechaza Ho y se concluye que la dieta reduce la
mediana del peso en 4.5 kilogramos.

□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1.1 Teclear "STATA"


1.2 Teclear "clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

input antes después

antes después
1. 58.5 60.0
2. 60.3 54.9
3. 61.7 58.1
4. 69.0 62.1

21
5. 64.0 58.5
6. 62.6 59.9
7. 56.7 54.4
8. 63.6 60.2 UNIVS:'.KS?DAD V£RACRUZANA
9. 68.2 62.3
10. 59.4 58.7
11. end

Como la hipótesis nula es del tipo H0 = -ju2 * d0, con do * 0, se genera


una nueva variable dada por la diferencia de las variables antes y después
como a continuación se indica:

. generate dif= antes-despues

. list

antes después dif


1. 58.5 60 -1,5
2. 60.3 54.9 5.399998
3. 61.7 58.1 3.600002
4. 69 62.1 6.900002
5. 64 58.5 5.5
6. 62.6 59.9 2.699997
7. 56.7 54.4 2.299999
8. 63.6 60.2 3.399998
9. 68.2 62.3 5.899998
10. 59.4 58.7 .7000008

> Instrucción para realizar la prueba y resultados que proporciona


el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

. signtest dif=4.5

Obteniéndose como resultado la tabla 2.5

22
Test: Equality of medians (Matched-Sample Sign Test)

Result of dif - (4.5)_________________________________


Positive_______4__________ ________________________
Negative 6 ______________________________
Total ______ 10_____ _____________________________
one-sided binomial Pr(k > - 6) = 0.3770______________
two-sided binomial Pr(k >= 6) = 0.7539
Tabla 2.5 Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

□ Solución con el paquete STATISTICA. Sign Test

V Creación de la base datos

La introducción de los datos en el paquete se reahza como se indica a


continuación:

1.- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o d u le S w itc h e r E3!
fértil Basic Statistics Nonparametric tests
/(Bëtween aWd wfthin: r,';l
¿¿AH N o n p a r a m e tr ic s /D istrib . . group dÏKërence tests.-.
jpv?. AN OVA/MAN OVA ;cdrfeléüoos;'obs'èfv,ed‘ ■- -
expected
■S;
Multiple Regression Ordinal descriptive
statistics (percentiles,
r Nonlinear Estimation ;mèaian,;m o d ë :'Tijv- "! ,,
Time Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis disttfcutions to data.
Data Management/MFM
Factor Analysis

Switch To Customize list...

End & Switch T o Cancel

23
2.- Capturamos nuestra base de datos de la forma siguiente:

¡ S T A T I S T I C A : N o n p a r a m e t ii c S t a t is t ic s - [D a t a :

a
F ie Edi Vi8W Analysis G raphs Options Wine

AS V a is [C a s e s

S i l l
Nur
V AItllllliil 2 3 I "' ”
ANTES D ESPUES diferenI ''-'I
. 58.500 60.000 -1.500L 4.500
il 60.300 54.900 5,400 4.500
3 61.700 58,100 3,600: 4,500
4 69,000 62,100 6 ,900. 4.500
it 64,000 58.500 5,500' 4.500
il 62.600 59.900 2.7005 4.500
il 56.700 54.400 2,300 4.500
8 63.600 60.200 3.400: 4.500
9 68,200 62.300 5.900 4,500
10 59.400 58.700 .700: 4.500

3.- Seleccionamos la opción Sign Test

I N o n p a ia m e tric S ta tis tic s L?Jx


.Nonßarametric stats OK
Distribution fitting
Cancel
jNonparametric Statistics:
|jj[| 2 x 2 Tables >?/V*/PhP. McNemar, Fisher exact ; Select the desired
nonparametiic
|t@ Observed versus expected X2
technique
Correlations (Spearman. Kendall tau, gamma]
Üjttj Wald-Wolfowitz runs test
Mann-Whitney U test
djffl Kolmogorov-Smimov two-sample test
eÿa Kruskal-Wallis A N O V A . median test
S ig n test

W ilcoxon matched paiis test

m
01101
oidio
Friedman A N O V A & Kendall's concoidance
Cochran Q test
£ ? Open g a la

Ordinal descriptive statistics (median, m o d e ....) : c


dsr
sA( JSL.
SttlCT . I
<E> Su

24
4.- Seleccionamos nuestras variables

Sign Tesi SI Es
S Amiable. j m .-h r i
Variable, lis' 1: DIFERLN Cancel j
Variable list 2- MEDIANA
|5M«I S.OX & whiikm j IMBBIIMlilll t'-'sr. 1ä wj
:

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 2.4.

1^ 5 Sign Tesi (nonpl3.sia) ■m i


! NONPAR P ercent ............ i i i i i B i i i i i i i
I STATS V < V 2 p -le v e l ¡
10 . 60 00000 ,316228 : .751830 ;
ill p|p|pj|pg||§i'
.■.■■■■■.y .............. - .......... : r
Tabla 2.6. Resultados de la prueba de hipótesis que proporciona
el paquete STATISTICA.

25
2.4.Prueba del signo para muestras relacionadas. Aproximación a
la Normal.

Para realizar este tipo de prueba se realizan los cálculos para


encontrar n y x, tal como se realizaron para la prueba del signo para dos
muestras relacionadas (sección 2.3.). Posteriormente, se sigue el
procedimiento descrito en la prueba del signo para una muestra mediante
la aproximación a la normal (sección 2.2). El ejemplo No 4 ilustra el
procedimiento completo.

Ejemplo No. 4. Prueba del signo para dos muestras relacionadas.


Aproximación a la normal.

Los datos siguientes fueron reunidos para probar la hipótesis nula de (


que no hay diferencia en las edades de los esposos y esposas.

Pareja 1 2 3 4 5 6 7 ■8 9 10 11 12 13
Esposo 25 29 28 45 41 37 25 •42 21 22 54 47 35
Esposa 26 28 26 36 40 42 28 40 20 24 50 35 37

Pareja 14 15 16 17 18 19 20 21 22 23
Esposo 62 29 44 45 38 59 30 40 37 27
Esposa 60 25 40 34 42 49 32 41 35 25

Solución:
1 . Hipótesis nula. Ho: = ]u2
2 . Hipótesis alterna Hi: //, *ju2
3. Nivel de significancia a =0.05
4. Estadístico de prueba. Variable binomial X con p=l/2.
5. Cálculos:

Diferencia -1 1 2 9 1 -5 -3 2 1 -2 4 -7
- + + + + - - + + - + -

Diferencia -2 2 4 4 11 -4 10 -2 -1 2 2

- + + + + - + - . - + +

26
Yl
Para lo cual n=23, x=14 y —= 11.5 Utilizando la aproximación de la

curva normal, se encuentra:

M = n P = 23(0.5) = 11.5 y a = jñ p q = V23(0.5)(0.5) = 2.40

~ Yl
Ahora, como la hipótesis alterna es del tipo Hi: jul * y x > - , se

calcula la probabilidad

P = P (X > x cuando p = 1/2) = P(X > 14)

_ x ±0.5-np 14-0 ,5 -1 1 .5
< = P (Z > 0.83) = 0.2033)
2.40

6 . Decisión: Se rechaza H0 sí P < a . Como (P=0.2033) >(a=0.05)


entonces no se rechaza Ho y se concluye que no existe diferencia
significativa en las edades de los cónyuges.

□ Solución con el paquete STATA

y Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1 .1 Teclear "STATA"
1.2 Teclear "Clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

Input esposo esposa

esposo esposa
1. 25 26
2. 29 28
3. 28 26

27
4. 45 36
5. 41 40
6 . 37 42
7. 25 28
8 .. 42 40
9. 2 1 20

10. 22 24
1 1 . 54 50
1 2 . 47 54
13. 35 37
14. 62 60
15. 29 25
16. 44 40
17. 45 34
18. 38 42
19. 59 49
2 0 . 30 32
2 1 . 40 41
2 2 . 37 35
23. 27 25
24. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción

•signtest esposo=esposa

Obteniéndose como resultado la tabla 2.7

28
Test: Equality of medians (Matched-Sample Sign Test)
Result of esposo - (esposa)
Positive 14
Negative 9
Total 23
one-sided binomial Pr(k >= 14) = 0.2024
two-sided binomial Pr(k >= 14) = 0.4049
Tabla 2.7 Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

a Solución con el paquete STATISTICA. Sign Test

> Creación de la base datos

La introducción de los datos en el paquete se realiza como se indica a


continuación:

1 .- Entramos al modulo Nonparametrics/Distrib

S T A T IS T IC A Module Switcher m
Basic Statistics Nonparemetric tests
(between and within
N o n p a r a m e trics/D ístríb . group difference te.'ts.
4 Q ANOVA/MANOVA correlations, observed-
expected^.
Multiple Regression Ordinal descriptive
statistics (percentiles,
A.? Nonlinear Estimation median, mode 1.
Time Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis distributions to data.
Data Management/MFM
C Factor Analysis

statut Switch To Customize list...


±22 JEnd & Switch T o Cancel

29
2.- Capturamos nuestra base de datos de la forma siguiente:

fife S T A T I S T I C A : N o n p a iam|
fríe £dt( ^iew ánafysi:
0 ! i l i a i
Nur ’
i
ESPO SO
37,000
? 25.000 2 8 .0 0 0
0 42.000 4 0 .0 0 0
9- 21.000 2 0 .0 0 0
10 22.000 2 4 .0 0 0
11 54.000 5 0 ,0 0 0
12 47.000 5 4 .0 0 0
13 3 5 , 000 3 7 .0 0 0
14 62.000 6 0 .0 0 0
15 29.000 2 5 .0 0 0
16 44.000 4 0 .0 0 0
1? 45.000 3 4 .0 0 0
18 38.000 4 2 .0 0 0
19 59.000 4 9 .0 0 0
20 30.000 3 2 .0 0 0
21 40.000 4 1 .0 0 0
22 37.000 3 5 .0 0 0
23 27.000 2 5 .0 0 0

3.- Seleccionamos la opción Sign Test

|£| N o n p a r a m e t r ic S t a t i s t i c s

Nonparametric stats Distribution fitting ^


Cancel
Nonparametric Statistics:
2 x 2 Tables X W V P h P . McNemar. Fisher exact : Select the desired
norpa-ametiic
J x l Observed versus expected X*
technique
§ Correlations (Spearman, Kendall tau, gamma]
0M Wald-Wolfowitz runs test
rÿ li Marm-Whitney U test
^ Kohnogorov-Stnimov two-sample test
eS Kruskal-Wallis A N O V A , median test
S ig n te st

j>2] W ilcoxon matched paiis test


H Friedman A N O V A & Kendall's concoidance
Oils Cochran Q test ÊÜ? Open .Data |
SBiCT .
Ordinal descriptive statistics (median, m o d e ....] : «as i ] *1

30
4.- Seleccionamos nuestras variables

[s j Sign T est

Variables I J3< \
Variable fist 1: ESPOSO Cancel
Variable fist 2: ESPOSA

Box fc whisker j

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 2.8.

Tabla 2.8. Resultados de la prueba de hipótesis que proporciona


el paquete STATISTICA.

31
3. PRUEBA DE RANGO CON SIGNO DE WILCOXON.

Recordemos que la prueba de los signos sólo utiliza los signos más y
los signos menos de las diferencias entre las observaciones y
_ « ( « + l) _ 16(16 + 1) _ 16(17)
^w+ ~ 4 - 4 4 ~ 5 en el caso de una muestra, o los signos
más y menos de las diferencias entre los pares de observaciones en el caso
de muestras apareadas, pero no toma en consideración las magnitudes de
estas diferencias. Una prueba que utiliza tanto la magnitud como dirección
fue propuesta en 1945 por Frank Wilcoxon y ahora se le conoce
comúnmente como prueba de rango con signo de Wilcoxon.

3.1 Prueba de rango con signo para una muestra.

El analista puede extraer más información de los datos en un


procedimiento no paramétrico si es razonable invocar una restricción
adicional en la distribución de la cual se sacan los datos. La prueba de
rango con signo de WILCOXON se aplica al caso de una distribución
simétrica continua. Bajo esta condición se puede probar la hipótesis nula
p = p 0. Primero se resta p 0 de cada valor muestral, descartando todas las
diferencias iguales que cero. Las diferencias restantes se ordenan por rango
sin tomar en cuenta su signo. Un rango de 1 se asigna a la diferencia
absoluta más pequeña (es decir, sin signo), un rango de 2 a la siguiente más
pequeña, y así sucesivamente. Cuando el valor absoluto de dos o más
diferencias es el mismo, se asigna a cada uno el promedio de los rangos que
se les hubiera asignado si las diferencias fueran diferentes. Por ejemplo, si
la quinta y sexta diferencias más pequeñas son iguales en valor absoluto, a
cada una se le asignará un rango de 5.5. Si la hipótesis p = ju0es verdadera,
el total de los rangos correspondientes a las diferencias positivas casi
igualaría el total de los rangos correspondientes a las diferencias negativas.
Estos totales se representan por w+ y w- respectivamente. Se designará el
valor más pequeño de las w+ y w- por w.
N

Al seleccionar muestras repetidas, se espera que varíen w+ y w_ y por


lo tanto w. Entonces se puede pensar que w+) w_ y w son valores de las
correspondientes variables aleatorias W+, W_ y W. La hipótesis nula p = p0
se puede rechazar en favor de la alternativa p < p0 sólo si w+ es pequeña y
w_ es grande. De la misma forma, la alternativa p > p0 se puede aceptar
sólo si w^ es grande y, w_ es pequeña. Para la alternativa bilateral se puede

32
rechazar Ho en favor de Hi si ya sea w+, w_ y por lo tanto w, es pequeña.
Por lo tanto, no importa cuál pueda ser la hipótesis alternativa, se rechaza
la hipótesis nula cuando el valor del estadístico apropiado W+! W_ o W es
suficientemente pequeño.

No es difícil demostrar que siempre que n < 5 y el nivel de


significancia no exceda 0.05, para una prueba de una cola o 0.10 para una
prueba de dos colas, todos los valores posibles de w+, o w conducirán a la
aceptación de la hipótesis nula. Sin embargo, cuando 5<n<30, la tabla A. 16
da valores críticos aproximados de w+ y w_ para niveles de significancia
iguales a 0.01, 0.025 y 0.05 para una prueba de una cola, y valores críticos
de w para niveles de significancia iguales a 0.02, 0.05 y 0.10 para una
prueba de dos colas. La hipótesis nula se rechaza si el valor calculado w+,
w_ o lo es menor o igual que el valor apropiado de tablas. Por ejemplo,
cuando n= 1 2 , la tabla A. 16 indica que se requiere un valor de w+ < 17 para
que la alternativa unilateral p, < ¿u0 sea significativa al nivel de 0.05.

A continuación se resume el procedimiento para probar hipótesis


mediante el empleo de la prueba de rango con signo.'

1 . Plantear la hipótesis nula Ho: p = p0.


2. Plantear la alternativa de interés Hi: ju<p0, Hi: ¡u * p 0, Hi:p>ju0.
3. Fijar el nivel de significancia a.
4. Determinar la región crítica. El cual denotaremos por wa
5. Realizar los cálculos para determinar w+, w_ y w.
6 . Decisión: se rechaza Ho: si w<wa.

Para ilustrar el procedimiento descrito, a continuación se resuelve el


siguiente ejemplo:

IJN1VE
33
Ejemplo N° 5. Prueba de rango con signo para una muestra.
Wilcoxon.

Un inspector de alimentos examinó dieciséis frascos de una marca de


jamón para determinar el porcentaje de impurezas. Se registraron los
siguientes datos: 2.4, 2.3, 3.1, 2.2, 2.3, 1.2, 1.0, 2.4, 1.7, 1.7, 4.2, 1.9, 1.7, 3.6,
1 .6 , y 2.3. Utilice la prueba de rango con signo, al nivel de significancia de

0. 05. para probar la hipótesis nula de que el porcentaje de impurezas en


esta marca de jamón es 2.5% contra la alternativa de que p. < 2.5%

Solución:

1 . - H„: -fi = 2.5

2. - H i:'^ < 2.5


3. - Nivel de significancia, a = 0.05
4. Cálculos: para determinar w+, w._ y w se realizan los cálculos,
siguientes:

Diferencia Rango Rango con signo


Obs. Impurezas d =x - p 0 \d \
(+) (-)
1 2.4 - 0 .1 1.5 - 1.5
2 2.3 -0 . 2 4 - 4
3 3.1 0 .6 7.5 7.5 -

4 2 .2 -0.3 ■ 6 - 6

5 2.3 -0 . 2 4 - 4
6 1 .2 -1.3 14 - 14
7 1 .0 -1.5 15 - 15
8 2.4 - 0 .1 1.5 - 1.5
9 1.7 -0 . 8 10 - 10

10 1.7 -0 . 8 10 10

11 4.2 1.7 16 16 -

12 1.9 -0 . 6 7.5 ■ - 7.5


13 1.7 -0 . 8 10 - 10

14 3.6 1 .1 13 13 -

15 1 .6 -0.9 12 - 12

16 2.3 -0 . 2 4 - 4
Total - 36.5 99.5

34
Obteniéndose w+=36.5 y w =99.5. De tal manera que w=36.5, el más
pequeño de w+ y w_.

5 . Región crítica. Dado que n= 16, de la tabla A. 16 se obtiene que la región


crítica es wa= 36.

6 . Decisión: Se rechaza Ho :si w <wa. Como (i¿>=36.5) > (wa=36) entonces no


se rechaza Ho y se concluye que el porcentaje de impurezas en esta marca
de jamón es de 2.5%.

□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1.1 Teclear "STATA”


1.2 Teclear "clear"
1.3 Teclear "input x" (nombre de la variable)
1.4 Introducir los datos como a continuación se muestra.

. input impureza

impureza
1. 2.4
2 . 2.3

3. 3.1
4. 2.2
5. 2.3
6 . 1.2
7. 1.0
8 . 2.4

9.1.7
10. 1.7
11. 4.2

35
12. 1.9
13. 1.7
14. 3.6
15. 1.6
16.2.3
17. end

> Instrucción para realizar la prueba y resultados que proporciona


el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


•paquete STATA, se obtiene mediante la instrucción:

. signrank impureza = 2.5

Obteniéndose como resultado la tabla 3. 1

Test: Equality of distributions (Wilcoxon Signed-Ranks)


Result of jamón - (2.5)
Sum of Positive Ranks = 36.5
Sum of Negative Ranks = 99.5
z-statistic -1.65
Prob > |z | 0.0980
Tabla 3.1. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

□ Solución con el paquete STATISTICA. W ilcoxqn

V Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

36
1 .-Entramos al modulo Nonparametrics/Distrib

[ì T A T I 5 T I C A M od ule S w itc he i

IM . Basic Statistics ... Nonpwametric tests a


(between a id within
m N o n p a ra m c t iic s / D is tiib . group difference tests,
g S l AN O VA/M ANO VA cwtr^atioiifeiobserVed;

I Multiple Regiession - - -. Ordfeiai des^riptive;


. statistics(pfrcintites, -
\ f Nonlinear Estimation
median, mode, );
I- ' T i me Series/Forecasting Fitting various
continuous and discrete
m Cluster Analysis distributions to data.
Data Management/MFM
Is iiis mm
■¡■¡I
Factor Analysis
m
wwmMmmmm
wmiimmmmm
m
S ta tin ». Sw itch T o

E n d 8. Sw itch T o \

¡ÜÜ

2 .- Capturamos nuestra base de datos de la forma siguiente:

m S T A T IS T IC A : Nonparam
[1111 File Edit View Analyst

P .« l i
fa
Nur
VAI
1 1 1 1 . MED : :
2.4001 2.500
2 2,300 2,500
m 3.100 2.500
m 2,200 2.500
11 2.300 2.500
11 1,200 2,500
m i.OOO 2. 5ÖÖ
il 2,400! 2.500
i l 1 , 700i 2.500
il 1.700 2,500
I I 4.200 2.500
1:2 1.900 . 2.500
B 1.700 2.500
i l 3.600 2,500
m 1.600 2.500
■M 2.300 2.500

37
3.- Seleccionamos la opción Wilcoxon matched pairs test

1 N o n p a fa m e tric S ta tis tic s

<*■ Nonearameltic stats C Distribution fitting fiK__I


..Canea!
Nonparametric Statistics:
2 x 2 Table* X * / W P h ? , M cNem ai. Fisher exact : Select the desired
nonoarametric
|xQ] Observed versus expected X*.
technique.
Correlations (Spearman. Kendall tau. gamma)
¡fjtj W ald-Wolfowitz runs test
jtXfj Mann-Whitney U test
ü$ü Kolmogorov-S mirnov two-sample'test
^ Kruskal-Wallis A N O V A . median test
[§g] Sign test

SU
SIW ilc o K o n m a tc h e d p a irs te s t

I Friedman A N O V A & Kendall** concordance


Cochran Q lest 1 ^ * Open g a ta J

.jSffl Ordinal descriptive statistics (median, mode. ...) ; Si *1 ê »

4.- Seleccionamos nuestras variables

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 3.2.

Tabla 3.2. Resultados de la prueba de hipótesis que proporciona


el paquete STATISTICA.

38
3.2 Prueba de Rango con Signo para comparar muestras
relacionadas. (Wilcoxon).

Para probar la hipótesis nula de que se están muestreando dos


poblaciones simétricas continuas con /Z, = ¡a2 para el caso de muestras
apareadas, se le da rango a las diferencias de las observaciones apareadas
sin considerar el signo y se procede como en el caso de una muestra simple.
Los diversos procedimientos de prueba para ambos casos de una muestra
simple y apareadas se resumen en la Tabla 3.3.

Contra la alternativa
Para probar Ho Calcule Se rechaza Ho si
Hi

IA
w+

*
P<Po
M>Mo w_ W_

M * /L w W <Wa

IA
*
M<Pn ■ w+ -
A = Pi w_ w_ < wa
M * Mo w U) < w a
Tabla 3.3 Prueba de rango con signo.

También se puede utilizar la prueba de rango con signo para probar


la hipótesis nula de que ¡u^-ju2=d0. Como con la prueba de los signos se
resta do de cada diferencia, se da rango a las diferencias ajustadas sin
considerar el signo, y se explica el mismo procedimiento anteriormente
descrito.

39
•/

Ejemplo N°. 6. Prueba de rango con signo para dos muestras


relacionadas. (Wilcoxon).

Los pesos de cinco personas antes de que dejaran de fumar y cinco


semanas después de que dejaron de hacerlo, en kilogramos, son los
siguientes:

Individuo 1 2 3 4 5
Antes 66 80 69 52 75
Después 71 82 68 56 73

Utilice la prueba de rango con signo para observaciones apareadas


para probar la hipótesis, al nivel de significancia de 0.05, de que dejar de
fumar no tiene efecto sobre el peso de una persona contra la alternativa de
que el pesó se incrementa si se deja de fumar.

Solución:

1 .■Ho.//. = //,

2 .- Hi: > U: .

3. - Nivel de significancia, a = 0.05

4. - Cálculos: para determinar w+, w y w se realizan los cálculos siguientes:

Peso Peso Diferencia Rango Rango con


Persona antes después
x2 d —x, —x2 |D.|1 signo
Xi- 1 1
( + ) (-)
1 66 71 -5 5 - 5
2 80 82 -2 2.5 . - 2.5
3 69 68 1 1 1 -

4 52 56 -4 4 - 4
5 75 73 2 2.5 2.5 -

Total 3.5 11.5

Obteniéndose w+=3.5 y w_=11.5. De tal manera que w, el más


pequeño de w+ y w_, es w=3.5.

40
5. Región crítica. Dado que n=5, la tabla A. 16 muestra que la región
crítica es wa=l.-
6 . Decisión: Se rechaza H0 :si w <wa. Como (w=3.S) > (wa=l) entonces
no se. rechaza Ho y se concluye que el dejar de fumar no tiene efecto
sobre el peso.

□ Solución con el paquete STATA.

>. Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:
1.1 Teclear "STATA"
1.2 Teclear "clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra

. input antes después

antes después
1 . 66 71
2 . 80 82
3. 69 68

4. 52 56
5. 75 73
6 . end

> Instrucción para realizar la prueba y resultados que proporciona


el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

41
¡LIOTE éT*
. s ig n r a n k a n te s = d e s p u é s "L ie . j a v ie r j u a r e z s a n c h e z 1
UNIDAD ACADEMICA DE ECONOMIA Y
ESTADISTICA
Obteniéndose compo resultado la tabla 3.4 u n iv e r s id a d v e r a c r u za n a

Test: Equality of distributions (Wilcoxon Signed-Ranks)


Result of antes - (después)
Sum of Positive Ranks = 3.5
Sum of Negative Ranks = 11.5
z-statistic -1.08
Prob > 1z | 0.2807
Tabla 3.4. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

□ Solución con el paquete STATISTICA. W ilcoxon.

y Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

1 .-Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M odule Switcher

Ciad Basic Statistics Nonparametnc tests


Ibetw een and within
Nonpaiametiics/Distiib. gioup difference test'.,
IANOVAAMANOVA correlations, observed-
expected X7, j
Multiple Regression Ordinal descriptive
statistic-; (percentiles,
1Nonlinear Estimation median, m ode, i;
' Time Series/Forecasting Fitting various
continuous and discrete
•Cluster Analysis distributions to data.
! Data Management/MFM
Factor Analysis
StatSoft Switch To ~~| Customize list... |

End & Switch To j Cancel

42
2 .- Capturamos nuestra base de datos de la forma siguiente:

•S T A T I S T I C A : N o n p a ia m e tiic S ta tistics - [D a ta

JF? R e Edit View Analysts Graphs Options W ir

66. j$ 0 Vats Cases


□i T i r a r 1 \ \ & \ M Ö
N •
Vj
4 3

1DESPUES DIFEREN MEDIANA


66.0001 71,000 -5.000 0,000
i 80.000! 82,000 -2. 000 0.000
1 69,000! 68.000 1, 000 0,000
i 52.000; 56.000: -4. 000 0,000
IS 75.000! 73.000 2. 000 0.000

3.- Seleccionamos la opción W ilcoxon m atched pairs test

I Nonparam etric Statistics

t* Nongaramctiic stats r Distribution lilting fiK


Cancel
Uanparametnc Statistics

Ena
i l 2 X 2 Tables J P / W P h f . McNemat. Fisher exact : Select the ce-ured
no*ipar<Bnetnc
Ik'I Observed versus expected X 2
technique
I Correlations (Spearman. Kendall tau. gamma)
itili W ald-Wolfowitz runs test
jfjffj Mann-Whitney U test
jtjTfj Kolmogotov-Smirnov two-sample test
H Kruskal-Wallis A N O V A . median test
I|h ¡] Sign test
W ilc o x o n m atched pairs test
[UH! Friedman A N O V A & Kendall's concordance
£ r Open g a la
ttSìì Cochran Q test
.¿r/H Ordinal descriptive statistics (median, mode. ...) : C B' 1 ,cO, iS
«wer .

4.- Seleccionamos nuestras variables

mWilcoxon Matched Pairs Test


Variables JBÎL 1
Variable fist 1: DIFEREN Cancel
Variable fist 2. MEDIANA
SRK.T . J — .: m :,
B ob & whisker C9SIÍ 1 CE» W

43
La prueba de hipótesis correspondiente, mediante el empleo del
paquete STATISTICA, proporciona dos resultados que se presentan en la
Tabla 3.5

Tabla 3.5. Resultados de la prueba de hipótesis que proporciona


el paquete STATISTICA.

44
3.3 Prueba de rango con signo para comparar muestras
relacionadas. Aproximación a la Normal. (Wilcoxon).

Cuando n>!5, la distribución de w+ (o w_) se aproxima a la


distribución normal con media

n{n + 1)

4
y varianza

n(n + 1 ) ( 2 n + 1)
'w+ 24

Por lo tanto, cuando n excede el valor más grande en la tabla A. 16, se


puede usar para realizar la prueba, el estadístico siguiente:

w ~ A»
z =

w+

Ejemplo N°. 7 Prueba de rango con signo para dos muestras


relacionadas. Aproximación normal. (Wilcoxon).

Los datos siguientes fueron reunidos para probar lá hipótesis nula de


que no hay deferencia en las edades de los esposos y esposas.

Pareja 1 2 3 4 5 6 7 8 9 10 11

Esposo 28 45 40 37 25 42 21 22 54 47 35
Esposa 26 36 40 42 28 40 20 24 50 54 37

Pareja 12 13 14 15 16 17
Esposo 62 29 44 45 38 59
Esposa 60 25 40 34. 42 49

¿Indica la prueba de rango con signo que existe una diferencia significativa
en las edades de los cónyuges al nivel a=0.05? Utilice la aproximación a la
normal.

45
Solución:

1. " Hü- fi , = fi .

2 . - Ha-' fi, * fi2

3. - Nivel de significancia, a = 0.05

4. Cálculos:
Esposo Esposa Diferencia Ran go Rango con signo
Pareja
Xi x2 d, = x, - x2
\dj (+) (-)
1 28 26 2 4 4
2 45 36 9 14 4 -

3 40 40 0 0 - -

4 37 42 -5 12 - 12

5 25 28 -3 7 - 7
6 42 40 2 • 4 4 -

7 21 20 1 1 1 -

8 22 24 -2 4 - 4
9 54 50 4 9.5 9.5 -

10 47 54 -7 13 - 13
11 35 37 -2 4 - 4
12 62 60 2 4 4 -

13 29 25 4 9.5 9.5 - ■

14 44 40 4 9.5 9.5 -

15 45 34 11 16 16 -

16 68 42 -4 9.5 - 9.5
17 59 49 10 15 15 -

Total 86.5 49.5

Obteniéndose w+=86.5. Utilizando la aproximación de la curva


normal, se encuentra:

n (n + 1) _ 16(16 + 1) _ 16(17)
= 68
4 ~ 4 ~ 4

_ n { n + \ ){2 n + \) _ 16(16 + 1)(2(16 + 1)) _ 272(33) _


°V + - = 374
24 ~ 24 24
<y w+ =19.34

46
2 = (w+ ~M«r+) = (86,5-68) _ Q9$
, 19.34

5. Región crítica. Con a=0.05 se tiene Za/2 = Z0025 = 1.96.


6 . Decisión: Se rechaza H0 :si Z <-1.96 ó Z.>1.96. Z=0.95 no cae en la región
crítica entonces no se rechaza Ho, y se concluye que no existe diferencia
significativa en las edades de los cónyuges.

□ Solución con el paquete STATA.

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:
1.4 Teclear "STATA"
1.5 Teclear "clear"
1.6 Teclear"input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra

. input esposo esposa

esposo esposa
1 . 28 26
2 . . 45 36
3. 40 40
4. 37 42
5. 25 28
6 . 42 40
7. 21 20

8 . 22 24
9. 54 50
10. 47 54
11. 35 37
12. 62 60
13. 29 25
14. 44 40
15. 45 34

47
16. 38 42
17. 59 49
18. end

NOTA: Borrar aquellas observaciones que resultan iguales mediante la instrucción


drop in 3/3 (para este caso).

y Instrucción para realizar la prueba y resultados que proporciona


el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

. signrank esposo=esposa

Obteniéndose como resultado la tabla 3.6

Test: Equality of distributions (Wilcoxon Signed-Ranks)


Result of esposo - (esposa)
Sum of Positive Ranks = 86.5
Sum of Negative Ranks = 49.5
z-statistic 0.96
Prob > |z 1 0.3388
Tabla 3.6. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

□ Solución con el paquete STATISTICA. Wilcoxon.

y Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

48
1 .-Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M od ule S w ilc h e i Ixl


Nonparametrtc tests
iaSa Basic Statistics
{betw een and within
WM_________________
N o n p a i a m e ti i c s / D i s tilb . group difference tests
correlations, observed-
g js anova /m anova
expected X*, .};
Multiple Regression Ordinal descriptive
statistics (percentiles,
|A* Nonlinear Estimation -median m ode. );
Time Series/Forecasting Fitting various
continuous and discrete
p i - Cluster Analysis distributions to data;
|¡:l|! Data Management/MFM
Factor Analysis

Mi Switch To I Customize list... j


End fc Switch To J Cancel______ |

2.- Capturamos nuestra base de datos de la forma siguiente:

Sg. STATISTICA: M onpaian

| jf? Elle Edit Vie-v Analysi||


il-9999, 131
g lü & Ü f f ig g : Ili ® p |
MUÍ
VAl
1 1

ESE*OSO 1
20, 00 0|A 26, 000
2~ 45. 000; 36,000!
3 40. 000; 40, 000
A . 37. 000: 42, 000
;s- 25,000! 28. 000
6 42. 000: 40. 000
? 21,000! 20, 000
8 22. 000: 24. 000
9 54.000! 50, 000
10 47. 000; 54, 000
.11 35, 000; 37, 000
12 62. 000 ! 60, 000
13: 29, 000: 25, 000
14 44,000! 40. 000
15 45.000! 34, 000
16 38.000! 42, 000
1? 59.000! 49, 000

49
3.- Seleccionamos la opción Wilcoxon matched pairs test

Nonparam etric Statistics

1 Non&atamctnc stats C D retribution Atting .Hi.... M


Honparametric Statistic*:
Caned
| | 2 x 2 Tables > e / W P h ? . McNemat. Fisher exact Select the deared
nonparametric
¡ x i Observed versus expected X*
t e c lv iq je
d H Correlations (Spearman. Kendall tau. gamma)
jfjtftj W ald-Wolfowitz runs test
jf$fj Mann-Whitney U test
ü
$fiKolmogorov-Smimov two-sample test
¡¡¡¡¡j Kruskal-Wallis A N O V A . median test
[§§] Sign test
W ilc o x o n m atched paiis test
H Friedman A N O V A fc KendalFs concordance
O L IS I i
gogjg Cochran Q test
SH
K!.
Ordinal descriptive statistics (median, mode. ...) : iiïMBiiâ: mm

4.- Seleccionamos nuestras variables

I W ilc o x o n M a tch e d Pairs T e s t mm


taJ-. Variable* j
Variable list 1: ESPO SO Cancel
Variable list 2: ESPO SA

B.OX&whisker srssr*
urer S„. IIj=> Sf !j

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 3.7

Tabla 3.7. Resultados de la prueba de hipótesis que proporciona el


paquete STATISTICA.

50
4. PRUEBA DE MCNEMAR PARA DOS MUESTRAS
RELACIONADAS

En Ciencias Sociales, en Medicina y en Biología, se presentan


situaciones donde un individuo actúa como su propio control. En este caso,
tenemos pares de observaciones hechas en el mismo individuo, una antes y
otra después, ya sea en el tiempo o después de haber aplicado algún
tratamiento. La prueba de McNemar es bastante apropiada para este tipo
de problemas, en donde además cada observación puede clasificarse en una
de dos categorías excluyentes, lo que permite usar información referida a
escala nominal. Esta prueba puede considerarse una variación de la del
signo y de la prueba binomial; sin embargo, por la forma como se maneja la
információn y por su énfasis en el cambio, se recomienda su presentación
por separado.

En la prueba de McNemar los datos consisten en n observaciones


apareadas (Xi,Yi), (Xp,Yp), ..., (Xa, Ya) donde la escala de medida para X y Y
es nominal con dos categorías a las que podemos denotar por + y -.
Generalmente los datos pueden ser presentados en una tabla de doble
entrada, de la manera siguiente:

Des]pués
+ -

Antes + a b a+b
- c d c+d
Total a+c- b+d n

donde:

n: número de pares de observaciones.


a: número de individuos que mantuvieron su respuesta sin. cambio
(en+)
b: número de individuos que cambiaron su respuesta (de + a - )
c: número de individuos que cambiaron su respuesta (de - a + )
d: número de individuos que mantuvieron su respuesta sin cambio
(e n -)

51
Esta prueba ha sido frecuentemente denominada de la significancia
en el cambio para dar énfasis en el interés en el estudio de los individuos
que después de que fue aplicado el tratamiento mostraron un cambio en su
respuesta; estos individuos corresponden a las celdas B y C, utilizando las
letras mayúsculas para identificar las celdas.

A continuación se resume el procedimiento para probar hipótesis


mediante el empleo de la prueba de McNemar.

1 . Plantear la hipótesis nula: ¡


Ho: Las variables aleatorias antes y después del tratamiento
tienen la misma distribución. Esto es, no hay cambios.

2. Plantear la hipótesis alterna.


Hi: Las variables áleatorias antes y después del tratamiento no
tienen la misma distribución. Esto es, si hay cambios.

3. Fijar el nivel de significancia a.

4. Determinar la región crítica. T >%2


a con u=l g.l.

5. Cálculos:

El estadístico para esta prueba generalmente se refiere como


T_ ( b-cf
b+c

6. Decisión. Se rechaza Ho siT > x 2


a.-

Corrección por continuidad. La aproximación mediante la


distribución de ji-cuadrada a la distribución muestral de la fórmula

Cb~cf
b+c
llega a ser excelente si se hace una corrección por continuidad. La
corrección es necesaria porque se usa una distribución continua (ji-
cuadrada) para aproximar una distribución discreta.

52
Cuando todas las frecuencias esperadas son pequeñas, esa
aproximación puede ser pobre. La corrección por continuidad (Yates, 1934)
es un intento para remover esta fuente de error.
La corrección por continuidad se realiza utilizando la expresión

T _ \b-c\-\]
b+ c

O sea, que se sustrae uno, del valor absoluto de la diferencia entre b y


c (sin hacer caso del signo) antes de elevar al cuadrado. El ejemplo
siguiente ilustra la aplicación de la prueba.

Ejemplo N°. 8 Prueba de McNemar para muestras relacionadas.

Antes de que se televisara un debate entre dos personas, en donde


una de ellas estaba a favor de legislar al aborto y la otra persona estaba en
contra, se eligió una muestra aleatoria de 1 0 0 personas y se les preguntó su
opinión acerca de la legalización y los resultados fueron de 84 a favor de 16
en contra.
Después del Debate, las mismas 100 personas expresaron
nuevamente su opinión y los resultados fueron los siguientes: de las 84
personas a favor, 2 1 cambiaron de opinión; mientras que de 16 que estaban
en contra, 4 cambiaron de opinión de todos los votantes que estaban a favor
de la legalización. Utilice a=0.05 para probar la hipótesis de que el debate
no cambio la opinión de las personas.

Solución:

A partir de los datos se construye la tabla siguiente:

Si No
Si 63 21 84
No 4 12 16
Total 67 33 100

53
Luego, continuamos con el procedimiento de prueba:

1. - Ho: El debate no cambió la opinión de las personas.


2. - Hi: El debate si cambió la opinión de las personas
3. - Nivel de significancia. a=0.05.
4. -Cálculos. Con a=63, b=21, c=4 y d=12 se tiene

r = ( ^ ) l =í ü z l ) l = 1 , 56
b+c 21+4

5. Región crítica. T >%l con v=l g.l. De la Tabla A.5 se tiene que

*0.05=3.841

6. Decisión. Se rechaza H0ú T > x l • Como (T=11.56)>(;r0205=3.841) se


rechaza Ho y se concluye que el debate si cambió la opinión de las personas.

Observación.

Si en el ejemplo N°. 8 se aplica la corrección por continuidad, se tiene


r j M - i U ( ^ 4 ) - i r =1024
b+c 21+4

Ahora, como (T=10.24) >(xl05= 3.841) se rechaza Ho, llegando a la


misma conclusión que en el caso anterior donde no se aplico la corrección
por continuidad.

□ Solución con el paquete STATA.

y Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

54
1 .1Teclear "STATA"
1.2 Teclear "clear"
1.3 Teclear "mcci" y se capturan los datos
1.5 Introducir los datos como a continuación se muestra

.mcci 63 21 4 12

y Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción

. mcci 63 21 4 12

Obteniéndose como resultado la tabla 4.1

Cases Controls
Exposed Unexposed TOTAL
Exposed 63 21 84
Unexposed 4 12 16
Total 67 33 100

McNemar's chi2(l)=11.56 Pr>chi2=0.0007


Tabla 4.1 Resultados de la prueba de hipótesis que proporciona el paquete
STATA.

o Solución con el paquete STATISTICA.

y Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación:

55
1 .- Entramos al modulo N onparam etrics/Distrib

¡ STATI STI CA Module Switcher


m
m Basic Statistics Nonparamerric rests
between and withn
¿¿trilliN o n p a i aiutili ics/D istiib. group difference tests,
j S A N O V A /M A N O V A correlations, observed
expected?«? ),
I/ 7 Multiple Regression Ordfiai descriptive
statistics (peicentiles
|A:< Nonlinear Estimation
median,mode,. .)■
l Tim e Series/Forecasting Fitting various
continuous and discrete
p - Cluster Analysis
distributions to data.
|ii:fl Data Management/MFM
Factor Analysis

Sw itch T o Customize fist.


J
E n d & Sw itch T o Caned

2 .- Seleccionamos la opción 2 x 2 Tables X W 2/Phi2, Mcnemar, Fisher


exact

im Nonparametric Statistics

<• Nonparametric stats C Distribution fitting E3 £LK


Cancel
lonparam etric Statistics:
□GD2 x 2
EH03
Tables Xz/W PhP, McNemat. Fisher exact Se'ect the desired
nonpa amstric
Turn O bserved versus expected X 1
technique
Correlations (Spearm an, Kendall tau, gamma]
W ald-W olfow itz runs test
Üjtjj M ann-W hitney U test
HXü Kolmogorov-Sm irnov two-sample test
jt if i Kruskal-Wallis A N O V A , median test

123] Sign test


2 3 ] W ilcoxon matched pairs test
Ü Ü i Friedman A N O V A & Kendall's concordance
jjjgjg Cochran Q test
0 ? O pen Data
sarei «
¿rill Ordinal descriptive statistics (median, mode. ...) : emis * O w

56
3.- Capturamos nuestra base de datos de la forma siguiente:

2 x 2 T a b le s

Enter the (retinencia»


H QK
for the 2 x 2 table:
Cancel
63 21
j— -------Specify the frequencies
53 P 2* 0 for »he two by two
frequency table■then
click OK

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la tabla 4.2

i fj ¡ § 2 x 2 T a b le (n o n p 2 .s t a ) x|
! NONPAR Row
___ :
STA TS C o lu m n 2 illiiiilil
1 21 84
P e rc e n t of to ta l 6 3 ,0 0 0 * / . ; 21.000* 84.000* Í:
F re q u e n c ie s , ro w 2 12 16
F e rc e n t of total 4,000* : 12,000* 16.000*
C o lu m n to ta ls ......6 7 33 100 L i
P e rc e n t of to ta l 67,000* : 33.000* : p:i
C h i-s q u a r e (d f= l) 15720 : p- ,0001
V -s q u a r e (d f= l) ............ 1 5 , 0 4 : p= .0001
Y a te s c o rre c te d C h i-s q u a r e 13.02 i p= .0003 L;
P h i-s q u a r e .15197 i !»
F is h e r exact p. o n e -ta ile d p= ,0002
tw o -t a iie d p= .0002
M cNem ar C h i-s q u a r e (A'D) 33.33 : p= .0000
C h i-s q u a r e ( B -'C ) 10,24 i" p = ... 7 0 0 1 4 • i
1 1 $5-
s¥;í,.;7* -.I!m
Tabla 4.2 Resultados de la prueba de hipótesis que proporciona
el paquete STATISTICA.

57
5. PRUEBA DE SUMA DE RANGOS

5.1 Prueba de Suma de Rangos para Muestras Independientes.


(Wilcoxon).

Cuando el objetivo es el de probar la igualdad de medianas de dos


distribuciones continuas que obviamente no sean normales, y las muestras
son independientes (es decir, no hay apareamiento de observaciones), la
prueba de suma de rangos de Wilcoxon o prueba de dos muestras de
Wilcoxon es una alternativa apropiada a la prueba t de dos muestras
descrita en la estadística paramétrica.

Se probará la hipótesis nula Ho .de que /T, =/T2contra alguna


alternativa apropiada. Primero se selecciona una muestra aleatoria de cada
una de las poblaciones. Sean n i el número de observaciones en la muestra
más pequeña y n 2 el número de observaciones en la muestra más grande.
Cuando las muestras son de igual tamaño, n i y n 2 se pueden asignar
aleatoriamente. Se acomodan las observaciones m +m de las muestras
combinadas en orden ascendente y se sustituye un rango de 1, 2, ... , n 1+112
para cada observación. En el caso de empate (observaciones idénticas), se
reemplazan las observaciones por la media de los rangos que las
observaciones tendrían si no fueran iguales. Por ejemplo, si las
observaciones séptima y octava son idénticas, se asignaría un rango de 7.5
a cada una.

La suma de rangos correspondiente a las n i observaciones en la


muestra más pequeña se representa por w i. En forma semejante, el valor
W2 representa la suma de los n 2 rangos correspondientes a la muestra más
grande. El total W 1 + W 2 depende únicamente del número de observaciones
en las dos muestras y no siempre se ve afectado por los resultados del
experimento. De aquí que, si n i= 3 y entonces
icy+i¿i2=l+2+3+4+5+6+7=28, sin importar los valores numéricos de las
observaciones. En general,

(«, + n2X«, + w, + 1)
w . + w , = — --------------- ---------------------------------------------- --

' 2 2

La suma aritmética de los enteros 1, 2, ..., n i+ n 2 . Una vez que se ha


determinado w i se puede encontrar W 2 con facilidad mediante la fórmula,

58
(wi +n2\nx+n2+l)
w2 = -w,

Al seleccionar muestras repetidas de tamaños ni y n2 , se esperaría


que variaran un y ui2 . Entonces se puede pensar de un y ui2 como valores de
las variables aleatorias Wi y W2 respectivamente. La hipótesis nula /T, =¡u2
se rechazará a favor de la alternativa ¡T, <p 2 sólo si un es pequeña y u) 2 es
grande. De la misma manera, la alternativa p, >p 2 se puede aceptar sólo si
u n es grande y W2 es pequeña. Para una prueba de dos colas, se puede
rechazar Ho en favor de Hi si un es pequeña y W2 es grande o si un es
grande y W2 es pequeña. En otras palabras, la alternativa p, <p, se acepta
si u n es suficientemente pequeña; la alternativa p, >p 2 se acepta si U12 es
suficientemente pequeña; y la alternativa p, * p 2 se acepta si el mínimo de
u n y W2 es suficientemente pequeño. En la práctica real la decisión por lo
común se basa en el valor,

nM +1) / n2 (», + 1)
Mi = o u2 = w0
2 ' 2

del estadístico correspondiente Ui o U2 , o sobre el valor de u del estadístico


U, el mínimo de Ui y U2 . Estos estadísticos simplifican la construcción de
las tablas de valores críticos, dado que ambos Ui y U2 , tienen distribuciones
muéstrales simétricas y asumen valores en el intervalo de 0 a 111112 de tal
forma que u i + U 2 zzn n i 2 .

De las fórmulas para u i y U 2 se ve que u i será pequeño cuando u n sea


pequeño y 112 será pequeño cuando U12 sea pequeño. En consecuencia, la
hipótesis nula se rechazará siempre que el estadístico apropiado Ui, U2 o U
asuma un valor menor o igual que el valor crítico deseado proporcionado
por la tabla A. 17. Los diversos procedimientos de prueba se resumen en la
tabla siguiente:

Para probar Ho Contra Hi Calcular Se rechaza Ho si:


Ú, <íc Ui u, — U a

/7, =ju, P, >Ú2 U2 u,<ua

U M i n ( u i, u j < u a

59
La tabla A. 17 da los valores críticos de Ui y U2 para los niveles de
significancia iguales a 0.001, 0.01, 0.025 y 0.05 para la prueba de una cola,
y valores críticos de U para los niveles de significancia igual que 0 .0 0 2 ,
0 . 0 2 . 0.05 y 0 . 1 0 para prueba de dos colas. Si el valor observado de ui, 112 o u

es menor o igual que el valor crítico de la tabla, la hipótesis nula se rechaza


al nivel de significancia indicado por la tabla.

A continuación se resume el procedimiento para probar hipótesis


mediante el empleo de la prueba de la suma de rangos para muestras
independientes de Wilcoxon.

1 . Planteamiento de la hipótesis nula H0 :j¡x =¡u2

2 . Planteamiento de la hipótesis alternativa de interés //, . jl, <¡1,,


#i -í, >£2, #1 *íC-

3. Fijar el nivel de significancia a.

4. Cálculos. En la muestra combinada, sea wi la suma de los rangos de la


muestra 1 y W2 la suma de los rangos de la muestra 2

(«, +«,-XW
l+«•>+0
W, + W, = —---- --------- =-----
. 2

un y u) 2 son los valores de la variable aleatoria que se denota por Wi y W2 .

5. Regla de Decisión.

— Si la hipótesis alterna es del tipo H] ¿T, <¿T2 se rechaza Ho si <ua

— Si la hipótesis alterna es del tipo > ^ 2 se rechaza Ho si Ul- ~ u*.

— Si la hipótesis alterna es del tipo ^ 1 -^i ^^2 se rechaza Ho si


Min(u¡,u,)<ua.

60
En la práctica la decisión se toma en base a:

U\ = w l
n\fa + 0 ti2 = W2 ” 2(” 2+l) u = Min(m, ,u2)
2 2

Ejemplo No. 9. Prueba de suma de rangos para muestras


independientes. (Wilcoxon).

Un fabricante de cigarros afirma que el contenido de alquitrán de los


cigarros marca B es menor que el de la marca A. Para probar esta
aseveración, se registraron los siguientes contenidos de alquitrán en
miligramos.

Marca A 12 9 13 11 14
Marca B 8 10 7 - -

Utilice la prueba de suma de rangos Wilcoxon con a=0.05 para


verificar si la afirmación es válida.

Solución

1 . Hipótesis nula. H0 : ]uB= ]uA

2. Hipótesis alterna. Hx: > jU

3. Nivel del significancia. a=0.05

4. Cálculos: Las observaciones se acomodan en orden ascendente y se


asignan los rangos de 1 a 8 .

Observaciones Rango
7 1*

8 2*

9 3
10 4*
11 5
12 6

13 7
14 8

61
Los rangos de las observaciones que pertenecen a la marca B, la
muestra más pequeña, aparecen con *, por tanto

M
,;=l+2+4=7

Como m=3, m=5 y wi-1 se tiene que

w _ (” i + » 2 +n2+ 1) n. _ (3 + 5X3 + 5 + l) ? _ 29
2 2 ' 2

Por lo tanto,

„ | = w , +1) = 7 _ jW = 7 _ 6 = i

»,= í l k ± 0 = 2 9 - 5 ¿ ± > ) = 29 , 2 £ = 2 9 - 1 5 = 14
2 2 2 2
5. Región crítica. Con nj=3, 712=5 y a=0.05 de la tabla A. 17 se tiene que
" , = «0.05 = 1 •

6 . Decisión: Se rechaza Ho si u < ua. Como (i¿=1 )=( m005 = 1 ) entonces se


rechaza Ho y concluimos que el contenido de alquitrán de la marca B es
menor que el de la marca A.

o Solución con el paquete STATA

> Creación de la base de datos

La introducción de la base de datos en el paquete STATA se realiza


como se indica a continuación:

1.1 Teclear "STATA"


1 .2 Teclear "clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

62
input marca alquit

marca alquit
1 . 1 12

2 . 1 9
3. 1 13
4. 1 11

5. 1 14
6 . 2 8

7. 2 10

8 . 2 7
9. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

• ranksum alquit, by (marca)

Obteniéndose como resultado la tabla 5.1.

Test: Equality of medians (Two-Sample Wilcoxon Rank Sum)


Sum of Ranks: 7(marca ==2)
Expected sum: 13.5
z-statistic -1.94
Prob > 1z 1 0.0526
Tabla 5.1. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

63
/

o Solución con el paquete STATISTICA.

1 .- Entramos al modulo Nonparametrics/Distrib

STA TISTIC A Module Switcher

Basic Statistics Nonparametnc tests


(between and within
;Afilli Nonparametrics/Distrib. group difference tests,
^A N O V A /M A N O VA correlations, observed-
expected >?, .).
I,- ~r Multiple Regression Ordinal descriptive
|y\? Nonlinear Estimation
rredian mode. J,
? Tim e Series/Forecasting Fitting various
continuous and discrete
p - Cluster Analysis
dslnbufions to data.
|| ¡1 D ata Management/MFM
Factor Analysis

Sw itch T o Customize list..

Cancel

2.-Capturamos nuestra base de datos de la forma siguiente:

I STATISTICA: Nonpar
File Edit View Anal.

N
Vj 1
M ARCA
a 1,000 12,000
2 1,000 9,000
1' 1,000 13,000
Ï 1,000 11,000
I 1,000 14,000
1 2,000 8,000
I 2,000 10.000
2,000
P

64
3.- Seleccionamos la opción Mann Whitney U test

i Nonpaiameliic Statistics

^ Ñongarametttc «tat* r' Distribution fitting OK

Cancel
Nonparametric Statistic*:
| | 2 x 2 T able* >^/W PhP. McNenvar, Fisher exact Select the desired
nonperametne
|lt| Observed versus expected X2
technique -
I Correlations (Spearman, Kendall tau, gamma)
Wald-Wolfowitz runs test
Mann-Whitney U test
Pr
| H Kolmogorov-Smirnov two-sample test
i | l Kruskal-Wallis AN OVA. median test
igQ] Sign test
22] Wilcoxon matched pairs test
m Friedman ANOVA & Kendall's concordance
Hill Cochran Q test £ ? Open Data
smcr „
.¿ätl Ordinal descriptive statistics (median, m ode....) : era; & Ä

4.- Seleccionamos nuestras variables

M ann-Whitney U T est ?|X

Variables JB* I
Grouping variable: MARCA Cancel
Dependent variables: CONTENIO

Code for Croup ];,j1 Double-click on the respective field


to select codes fromthe list of valid
Code for Group ?• IT variable values

B ox ft whisker
Categorized histogram cuas ®f Ô «

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 5.2.

65
Tabla 5.2. Resultados de la prueba de hipótesis que proporciona el
paquete STATISTICA.

5.2 Prueba de suma de rangos para muestras independientes.


Aproximación a la Normal. (Wilcoxon).

Cuando m como m exceden de 8 , la distribución muestral de Ui (o Vi)


se aproxima a la distribución normal con

nn
1 2 n,n2(n¡ +n2 +1)
Media: /lu Varianza: al,
2 y •

Por lo tanto, cuando n,2 es mayor que 20, el valor máximo en la tabla
A. 17 y m es al menos 9, se puede utilizar el estadístico:

U -a ■
Z = —i— ^
<7u¡

para la prueba, con la región crítica cayendo en cualquiera o en ambas colas


de la distribución normal estándar, dependiendo de la forma de Hi.

Ejemplo No. 10. Prueba de suma de rangos para muestras


independientes. Aproximación a la Normal. (Wilcoxon).

Se está fabricando un hilo para pescar mediante dos procesos. Para


determinar si existe alguna diferencia en la resistencia promedio de
ruptura de los hilos, se seleccionan diez piezas de cada proceso y se prueba
su resistencia a la ruptura. Los resultados son los siguientes.

Proceso 1 10.4 9.8 11.5 1 0 .0 9.9 9.6 10.9 1 1 .8 9.3 10.7


Proceso 2 8.7 1 1 .2 9.8 1 0 .1 1 0 .8 9.5 1 1 .0 9.8 10.5 9.9

66
Utilice la prueba de suma de rangos de wilcoxon con a=0.10 para
determinar si existe diferencia entre las resistencias medidas de ruptura de
los hilos fabricado en las dos poblaciones.

Solución
1. Hipótesis nula. H0 ./T, =ju2

2 . Hipótesis alterna. Hx : ¡I, * jl2

3. Nivel del significancia^. a=0.10

4. Cálculos: Las observaciones se acomodan en orden ascendente y se


asignan los rangos de 1 a 2 0 , obteniéndose:

O bservación Grupo Rango


8.7 2 1

9.3 1 2

9.5 2 3
9.6 1 4
9.8 1 6

9.8 2 6

9.8 2 6

9.9 1 8.5
9.9 2 8.5
1 0 .0 1 10

1 0 .1 2 11

10.4 1 12

10.5 2 13
10.7 1 14
1 0 .8 2 15
10.9 1 16
1 1 .0 2 17
1 1 .2 2 18
- 11.5 1 19
1 1 .8 1 20

67
Los rangos de las observaciones que pertenecen a la marca A, aparecen con
el número 1 y las que pertenecen a la marca B aparecen con el número 2 en
la tabla anterior, por tanto

u>/ = 2+ 4 + 6 + 8 .5 + 10 + 12 + 14 + 16+19 + 20= 111.5

Como /i,7=10, /i2=10 y i¿>/=111.5 se tiene que

(n, +n2)(n. +n2 +l) (lO + loVlO + ll)


w, = —-----2
— ---------- --w , = ±--------^--------- —111.5 = 98.5
2 - 2 .

» .( « .+ 1) lOÍll)
77, = W i ~ ---- - = 111.5-----^ = 56.5
2 2

77,( 77, +l) 10(ll)


u2 =w2- -^ -2 ----- = 98.5-----= 43,5
2 2

Utilizando la aproximación a la distribución normal se tiene:

Media: JUU] n\n2 _ (ÍOXIO) = 50

Varianza: G2 = = 0 0 X1 0 X1 0 +10 + 0 = 100(21) _2100_1?£


12 12 12 12

Gu = 13.23

z =
U,
' M « , 43.5-50 = -0.49
13.23
5. Región crítica. Con a=0.10 en una prueba bilateral se tiene
Z*/2 = Z0.05 =-1-645.

68
6. Decisión: No se rechaza Ho y se concluye que no existe suficiente
evidencia para decir que la ruptura de los hilos es diferente mediante los
dos procesos.

□ Solución con el paquete STATA

y Creación de la base de datos

La introducción de la base de datos en el paquete STATA se realiza


como se indica a continuación:

1.5 Teclear "STATA"


1.6 Teclear "clear"
1.7 Teclear "input x y" (nombre de las variables)
1.8 Introducir los datos como a continuación se muestra.

input proceso resist


proceso resist
1. 1 10.4
2. 1 9.8
3. 1 11.5
4. 1 10.0
5. 1 9.9
6. 1 9.6
7. 1 10.9
8. 1 11.8
9. 1 9.3
10. 1 10.7
11. 2 8.7
12. 2 11.2
13. 2 9.8
14. 2 10.1
15. 2 10.8
16. 2 9.5
17. 2 11.0
18. 2 9.8
19. 2 10.5
20. 2 9.9
21. end

69
>• Instrucción para realizar la prueba y resultados que proporciona
el paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

• ranksum resist, by (proceso)

Obteniéndose como resultado la tabla 5.3.

Test: Equality of medians (Two-Sample Wilcoxon Rank Sum)


Sum of Ranks: 111.5 (proceso=l)
Expected sum: 105
z-statistic 0.49
Prob > 1z | 0.6232
Tabla 5.3. Resultados de la prueba de hipótesis que proporciona el paquete STATA.

o Solución con el paquete STATISTICA.

1.- Entramos al modulo Nonparametrics/Distrib

STA TISTIC A Module Switcher

îifl Basic Statistics Nonpaiarnetnc tests


(between and within
Nonparametrics/Distrib. group difference tests,
U anova /m anova
correlation', observed-

Multiple Regression Ord'nal descriptive


Xj Nonlinear Estimation
statistics (percentiles,
median, mode. . ].
Tim e Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis
d stributions to data.
Data Management/MFM
Factor Analysis

p ih Sw itch T o Customize Tist... |

A
-, Lud L iSwünxh Vis Cancel

70
2.-C aptu ram os n u estra base de datos de la form a siguiente:

« 3g.STATIS 1ICA: Nonpaian


¡f*? File Edit View Anafysrjj
1*9999, jg|
g m m m m m r n
NUI
VAI
1 2
PROCESO RESULTA
1.000: 10.400]
2 1.000! 9.800!
3 l . OOOj 11. 500
4-J i . ööö! i b. öoöi
s: 1.000- 9.900!
i . öööi 9.600!
%" 1. 000! 10.900!
B' 1. 000! 11.800!
9. 1. 000 9.300!
is 1. 000! 10.700!
it 2.000; 8.700!
1-z 2. 000 11.200!
13 2. 000 9.800!
14 2.0ÖÖ i Ö. l ÖÖ!
15 2. ÖÖÖ: 1Ö.8ÖÖ!
16 2. 000! 9.500;
17 2. 000 11.000:
In 2.000! 9.800!

3.- Seleccionamos la opción Mann Whitney U test

p:£
äæNonparametric Statistics ^ ?,X

<* Nonparamettic stats (*■Oistiibution fitting OK j


Cancel i II
Nonparametric Statistics:
jljü 2 x 2 Tables X*/V*/PhP, M cNem ar, Fishei exact Select the desired 1
nonparametr-c |
| x'| O bseived versus expected X*
technique 1
Correlations (Spearm an, Kendall tau, gamma) ilillil
HHW ald-W olfow itz runs test lililí
Mann-W hitney Utest
SXti Kolmogorov-Smirnov two-sample test
HJ Kruskal-Wallis A N O V A , median test
¡Q Sign test
|| W ilcoxon matched pairs test 1IBI1SIII
HjjyFriedman A N O V A A Kendall’s concordance ¡¡¡lili!
jllll Cochran Q test ^ O pen D ata j
jamOrdinal descriptive statistics (median, mode___ ) surer £
„ I1
«11
casis

71
4.- S eleccion am os nuestras variables

M a n n -W h it n e y U T e s »

S3 Vonable* ]
Grouping variable: PROCESO Cancel : | :
Dependent variable* R C S U L TA
Code for Group Jj |1 Double-clid- on the respective field
to select codec ficm the list al valid
Code for Group 2 [2 variable values

lt»t|_______P_ok t wrhi*kct______ J

jssS B Categorized fairloqian j

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 5.4.

jlM a n n -W h iln e y U T e s ! (n o n p 2 7 .s la ) -ini*


C o n tin u e ...
By variable PROCESO
Group 1: 1 Group 2: 2
Rank Sum
variable Group 2 U p-level
111,5000 98,50000 ! 43,50000 .491354 ,623180
rrt ►r

Tabla 5.4. Resultados de la prueba de hipótesis que proporciona el


paquete STATISTICA.

5.3 Prueba U de Mann-Whitney para muestras independientes

Una prueba estadística para comparar las ubicaciones relativas de


dos poblaciones A y B, basada en muestras independientes, fue propuesta
por Wilcoxon (1945) y bajo una forma ligeramente diferente por Mann-
Whitney (1947). Para el método de la prueba es necesario ordenar la ni y 712
observaciones con m < m, seleccionadas al azar e independientemente de
las poblaciones A y B, desde la menor (rango=l) hasta la mayor
(rango=?j,/+7i2). Se promedian los rangos para observaciones con empate, y
se asigna el rango promedio a cada una de las observaciones empatadas.
Luego se calcula la suma T a de los rangos para la muestra A y la suma T b

72
para los rangos para la muestra B. Se utilizan las sumas de dichos rangos
para obtener la estadística de prueba.

La razón es que si la distribución A se encuentra a la derecha de la


distribución B, entonces la suma de los rangos Ta tendría que ser mayor
que T b . La estadística de prueba de U de Mann-Whitney empleará una de
las cantidades Ua o Ub que se presenta a continuación:

Fórmulas para la estadística U de Mann-Whitney

TT «,(«,+ l) T*
UA = r\n2 + " J — ' - Ta

TT «2(«2+1)
UB = « ,» 2+ ^ ---- ¿ - T b

donde:

7ii = Número de observaciones en la muestra A.

112 = Número de observaciones en la muestra B.

Ta y T b = Sumas de los rangos para las muestras A y B


respectivamente.

■t-IA+UB= n\n2

Cómo se puede observar en las fórmulas para XJa y Ub , Ua será


pequeño cuando T a es grande, una situación que probablemente ocurrirá
cuando la distribución poblacional de las mediciones A se encuentra a la
derecha de la distribución poblacional de las mediciones B . Por
consiguiente, para realizar una prueba de una cola para detectar un
desplazamiento en la distribución A hacia la derecha de la distribución B,
se rechazará la hipótesis nula de “no hay diferencia en las distribuciones
poblacionales” si Ua es menor que algún valor especificado Uo. Es decir, se
rechazará Ho para valores pequeños de Ua . Similarmente, para realizar
una prueba de una cola para detectar un desplazamiento de la distribución
B hacia la derecha de la distribución A, se rechazará Ho si Ub es menor que
un valor específico, digamos Uo. Por consiguiente, la región de rechazo para
la prueba U de Mann-Whitney, aparecerá como se ilustra en la gráfica
siguiente:

73
o U
2

La tabla 12 muestra la probabilidad de que un valor observado de U


sea menor que un valor específico, digamos XJo. Este es el valor de a para la
prueba de una cola. Para realizar una prueba de dos colas; es decir, para
detectar un desplazamiento en las distribuciones poblacionales para las
mediciones A y B en cualquier dirección, acordamos utilizar siempre U, el
menor valor de Ua y Ub , como la estadística de prueba y rechazar Ho para
U<Uo (ver figura anterior). El valor de a para una prueba de dos colas será
el doble del valor dado en la tabla 12.

A continuación se resume el procedimiento para probar hipótesis


mediante el empleo de la prueba U de Mann-Whitney.

1. Planteamiento de la hipótesis nula, Ho:

2. Planteamiento de la alternativa de interés, H] : /í, -< /j2, Hx >- fi2,


H, : /2, * m2

3. Fijar el nivel de significancia a.

4. Estadístico de prueba. Para una prueba de dos colas, utilice U, el menor


entre

UA = n }n2 + +0
' 2
y

74
5. Región de rechazo.

Prueba de dos colas: Para un valor de a, rechazar Ho si U < U o , donde


P ( U < U o) = a/2 [Nota: obsérvese que U o es el valor tal que P(U < f/0). es

igual a la mitad de a].

Prueba de una cola: Para un valor dado de a, rechace Ho si U < U o,


d o n d e P { ü < U o)= a

Ejemplo No. 11. Prueba U de Mann-Whitney para muestras


independientes.

Una empresa de correduría de bienes raíces comparó la satisfacción


de los clientes respecto a las ventas recientes para dos corredores
diferentes. La empresa de correduría entrevistó a los compradores de
bienes raíces de cada venta de los corredores durante el último mes, ocho
para el corredor A y siete para el corredor B, y se les pidió que dieran el
grado de satisfacción al tratar con el corredor, en una escala de 1 (baja) a 20
(alta).

Las calificaciones se muestran en la tabla siguiente:

Corredor A 16 10 12 15 19 17 11 -

Corredor B 13 18 17 20 16 20 14 15

¿Proporcionan los datos suficiente evidencia para indicar que las


calificaciones del nivel satisfacción difieren de un corredor al otro? Haga la
prueba con a = 0.10

Solución:

1. Hipótesis nula. H0 :\ÍA=\ÍB

2. Hipótesis alterna. Hx .

V.

75
3. Nivel de significancia. a=0.10

4. Cálculos: Para calcular T a y T b calculamos los rangos, tal como se indica


a continuación:

Corredor R Corredor R
A B
16 8.5 13 4
10 1 18 12
12 3 17 10.5
15 6.5 20 14.5
19 13 16 8.5
17 10.5 20 14.5
11 2 14 5
- - 15 6.5
Total 44.5 75.5

Como m = l , 112 = 8 , Ta = 44.5 y Ts=75.5 calculamos Ua y Ub como se


indica a continuación:

U A = n ,n 2 + -± = (7)(8) + Z&)_44 5 = 39.5

£/s = nxn 2 + = ( 7 X 8 ) + ^ - 7 5 5 = 16.5

Por tanto, como U esta dado como el menor de Ua y Ub se tiene que


U = 16.5. ■

5. Región de rechazo. De la tabla A. 12 con m=7, 1 1 2 = 8 y a/2=0.05 se tiene


Uo=l8 . Ho se rechaza si U<Uo. Por tanto, como U < Uo (para 17=16.5 y
Un=13), entonces no se rechaza Ho y concluimos que no existen
diferencias entre un corredor y otro.

BIBLIOTECA
"L lC . JA V IE R JU A R E Z SA N CH EZ'
UNIDAD ACADEMICA DE ECONOMIA Y
ESTADISTICA
u n iv e r s id a d v e k a c r u z a n a
La prueba de hipótesis correspondiente, mediante el empleo del paquete
STATA, se obtiene mediante la instrucción

• ranksum calif, by(corredor)

Obteniéndose como resultado la Tabla 5.5

Test: Equality of medians (Two-Sample Wilcoxon Rank Sum)


Sum of Ranks: 44.5 (corredor==l)
Expected sum: 56
z-statistic -1.33
Prob>|zl 0.1832
Tabla 5.5. Resultados de la prueba de hipótesis que proporciona el paquete
STATA.

□ Solución con el paquete STATISTICA.

y Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

1.- Entramos al modulo Nonparametrics/Distrib

¡ ST AT I ST I CA Module Switcher

B a s ic Statistics Nonpatametric tests


(between and within
:JÆ\Nonparametrics/Distrib. group difference tests,
sa A N 0 V A / M A N O V A correlations, observed-
expected ><?, ).
M ultiple Regression Ordinal descriptive
statistics (percentiles,
A; N onlinear Estimation
median, mode, J,
Tim e Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis
distributions to data.
D a ta M anagem ent/M FM
Fa ctor Analysis

S w itch T o Custom ize list...

ill Cancel

78
o Solución con el paquete STATA.

'y Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1.1 Teclear "STATA"


1.2 Teclear "clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

. input corredor calif

corredor calif
1. 1 16
2 1 10
.

3. 1 12
4. 1 15
5. 1 19
6. 1 17
7. 1 11
8. 2 13
9. 2 18
10. 2 17
.
11 2 20
12. 2 16
13. 2 20
14. 2 14
15. 2 15
16. end

y In stru cción para realizar la prueba y resultados que proporcion a el


paquete.

77
2.-Capturamos nuestra base de datos de la forma siguiente:,

% STATISTICA: Nonpaiai
1 p File Edit View Analys |
I f-9999 (È
IS i@ m
NUT
VAI
1 2
CORREDOR RESP
1,000 16.000
2 1,000' 10.000
3 1.000: 12.000
4 1.000 15.000
5 1.000 19,000
6 1.000 17.000
7 1.000 11,000
3 2.000 13.000
9 2.000. 18.000
10 2.000 17.000
11 2.000 20.000
i '2 2,000 16.000
13 2,000 20.000
¿4 2,000 14.000
[i$ 2,000; 15.000

3.- Seleccionamos la opción Mann Whitney U test

Nonparametric Statistics ?|Xl

& Nongaiamettic stati Distnbution fitting an


Cancel
NonpofamoUtc Statistici'
E| 2 x 2 Tables X !/V*/Ph?. McNemar. Fisher exact Selce' ‘"C desired
nonpa-amci'ic
Observed versus expected X1
tcchn'cuc
Correlations (Spearman. Kendall tau. gamma]
W ald-W olfowitz runs test

ijL
FE
eV

ejli]Mann-Whitney U test
EinKolmogorov-Smimov two-sample test
Kruskal-Wallis A N O V A . median test
Sign test
IggJ W ilcoxon matched pairs test
m
axial
Friedman A N O V A fc Kendall's concordance
iOIO
OIO
W Cochran Q test Open Qata |
O
.iültl Ordinal descriptive statistics (median, mode. ...)
smis
iurr * «0 9 w

79
"LIC. JAVIER JUAREZ SANCHEZ
4.- Seleccionamos nuestras variables UNIDAD ACADEMICA DE ECONOMIA V
ESTADÍSTICA
tiA
I M ann-Whitney U Test

Variables I Q*
Grouping variable: CORREDOR Cancel
Dependent variables: RESP
Cride foi G roup J_: j> Doubt-cl ck on (ha respective held
- to select codos from the 1st of vahd
Code for G io up J 12| variable velues

B o u t> whiskei

Categorized .histogram

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 5.6.

Tabla 5.6. Resultados de la prueba de hipótesis que proporciona el


paquete STAT1STICA.

80
6. PRUEBA H DE KRUSKAL-WALLIS PARA DISEÑOS
COMPLETAMENTE ALEATORIZADOS.

Así como la prueba U de Mann-Whitney es la alternativa no paramétrica


para la prueba t de Student para una comparación de medias poblacionales, la
prueba H de Kruskal-Wallis es la alternativa no paramétrica para una prueba F
de análisis de varianza en el caso de un diseño completamente aleatorizado. Se
aplica la prueba para detectar diferencias en las ubicaciones entre más de dos
distribuciones poblacionales, basándose en un muestreo aleatorio independiente.

El procedimiento para realizar la prueba H de Kruskal-Wallis es similar al


procedimiento que se utiliza para la prueba U de Mann-Whitney. Suponga que
comparamos k poblaciones, basándose en muestras aleatorias independientes, ni
de la población 1, n2 de la población 2,... y nk de la población k , donde

n,+n2+... + nk=n

El primer paso es ordenar todas las n observaciones de la menor (rango 1)


a la mayor (rango n). Alas observaciones empatadas, se les asigna un rango igual
al promedio de los rangos que habrían recibido si hubieran sido casi iguales, pero
no con empate. Después se calculan las sumas de los rangos ,T2 ,...,Tk para las k
muestras y la estadística de prueba

_ J 2_ y T ¿
H= 3(n +1)
«(« + l),=i n,

Cuánto más grande sean las diferencias en ubicación entre las k


distribuciones poblacionales, tanto mayor será el valor de la estadística H . Así
que se rechaza la hipótesis nula de que las k distribuciones poblacionales son
idénticas para valores grandes de H .

¿Qué tan grande es lo grande? Se puede demostrar que cuando los tamaños
muéstrales son de moderados a grandes, digamos, cada tamaño muestral mayor o
igual que 5 y cuando H0 es verdadera, la estadística H tendrá aproximadamente
una distribución ji cuadrada con (£-l) grados de libertad. Por lo tanto, para un
valor dado de a se rechaza H0 cuando la estadística H es mayor que ■

81
A continuación se resume el procedimiento para probar hipótesis mediante
el empleo de la prueba H de Kruskal-Wallis.

1. Hipótesis nula: Las k poblacionales son idénticas.


2. Hipótesis alterna: Por lo menos dos de las k distribuciones poblacionales
difieren en ubicación.

3. Fijar el nivel de significancia a .

4. Región crítica: x l con k ~ 1 grados de libertad.


5. Estadístico de prueba.

.H
12 k 'T 2
Y — 3(n +1)
n(n + \)tt nt

donde:

n= Tamaño de la muestra para la población i.


Ti= Suma de rangos para la población i.
n = Número total de observaciones.
n —n] +n2 +... + nk

6. Regla de decisión. Rechazar H0 cuando H> x l

82
Ejemplo No. 13 Prueba H de Kruskal-Wallis para diseños en bloques
completamente aleatorizados.

Tres Profesores enseñan tres secciones del mismo curso de


matemáticas. Las calificaciones se registran de la siguiente manera.

A 73 89 82 43 80 73 66 60 45 93 36 77 - - -

B 88 78 48 91 51 85 74 77 62 76 96 80 56

00

OO
C 68 79 56 91 71 71 87 41 59 68 53 79 15 - -

Utilice la prueba de. Kruskal-Wallis, al nivel de significancia de 0.05,


para determinar si las distribuciones de calificaciones otorgadas por los tres
profesores difieren en forma significativa.

Solución:

1. Hipótesis nula: H 0 : jux = /), = ju3.

2. Hipótesis alterna: / / , : Por lo menos dos de las tres medianas son diferentes.

3. Nivel de significancia, a =0.05.


4. Región crítica. H>xl con u = k - 1 g.l para u = 3 - 1 = 2 g.l., se tiene
H ^ x l 05 = 5.99-

5. Cálculos. En la tabla siguiente se presentan los rangos de las 40 observaciones,


las cuales se suman para cada profesor.

83
A Ti B T2 C T,3
73 20.5 88 35 68 16.5
89 36 78 26.5 79 28.5
82 32 48 7 56 10.5
43 ■ 5 91 37.5 91 37.5
80 30.5 51 8 71 18.5
73 20.5 85 33 71 18.5
66 15 74 22 87 34
60 13 77 24.5 41 4
45 6 31 2 59 12
93 39 78 26.5 68 16.5
36 3 62 14 53 9
- 77 24.5 76 23 79 28.5
96 40 15 1
80 30.5
56 10.5
Sum a T i= 245 T 2=340 T,3=235

Ahora, al substituir m=12, ;i2=15, Ai3=13 y Tx= 245 T2 =340 y 7¡ = 235, el


estadístico de prueba H asume el valor,

H=
12 2452 3402 235 2A
-3(40 + 1)
40(40 + l) 12 12 12
12
(16956.82)-123 = 1.074
1640

6. Decisión: Se rechaza H g si H>xl - Cómo H -< ^ 2(l.074.-<5.99) no se rechaza


t
H0, y se concluye que las calificaciones otorgadas por los tres profesores no
difieren en forma significativa.

84
□ Solución con el paquete STATA.

y Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se indica a


continuación:
1.1 Teclear "STATA”
1.2 Teclear "clear"
1.3 Teclear "input x y "(nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

input profe calif

profe calif
1. 1 73
2. 1 89
3. 1 82
4. 1 43
5. 1 80
6. 1 73
7. 1 66
8. 1 60
9. 1 45
10. 1 93
11 1 36
12. 1 77
13. 2 88
14/ 2 78
15. 2 48
16. 2 91
17. 2 51
18. 2 85
19. 2 74
20. 2 77
21. 2 31
22. 2 78
23. 2 62
24. 2. 76
25. 2 96
26. 2 80
27. 2 56
28. 3 68

85
29. 3 79
30. 3 56
31. 3 91
32. 3 71
33. 3 71
34 3 87
35. 3 41
36. 3 59
37. 3 68
38. 3 53
39. 3 79
40. 3 15
41. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del paquete STATA,


se obtiene mediante la instrucción

. kwallis calif, by(profe)

Obteniéndose como resultado la Tabla 6.1

Test: Equality of populations (kruskal-Wallis Test)


profe Obs Ranksum
1 12 245.00
2 15 340.00
3 13 235.00
Chi-square= 1.074 with 2 d.f.
Probability^ 0.5844
Tabla 6.1. Resultados de la prueba de hipótesis que proporciona el paquete
STATA.

□ Solución con el paquete STATISTICA.

> Creación de la base de datos.

La introducción de los datos en el paquete se realiza como se indica a


continuación:

86
1.- Entramos al modulo Nonparametrics/Distrib

STATI STI CA Module Switcher


liE
Basic Statistics Nonparametric tests
(between and within
Nonparametncs/Distrib. group difference teste
jlA N O V A / M A N O V A correlations, obset' ed-
expected X*, ),
\
-/- Multiple Regression Ordinal descriptive
£ V Nonlinear Estimation
median, mode, . ].
9 Tim e Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis
distributions to data.
Data Management/MFM
Factor Analysis

«*>*<*> Sw itch T o I Customize fist., j

iisoi' --ä

2.-Capturamos nuestra base de datos de la forma siguiente:

STATI STI CA: Nonpaiar


File Edit View Analysi

H I i J l S M i l f 3*1
Nur
V
AI
2
¿ ' C A L IF
1.00 0 73.000
2 1.000 89,000
'? 1.000 82.000
4 1.000 43,000
S 1.000 80.000
6 1.000 73.000
7 , 1.000 66.000
8 1.000 60.000
.9 1.000 45.000
10 1,000 93,000
11 1.000 36.000
12 1.000 77.000
13 2.000 88.000
14 2,000 78.000
IS 2.000 48.000
16 2.000 91.000
17 2.000 SI.000
18 2.000 8S.000

87
3.- Seleccionamos la opción Kruskall Wallis ANOVA, median test

m Nonparametric Statistics

□ OK
f* Nonparametric r Distribution fitting

Cancel
N onpaiam etiic Statistics:

{ ¡ ¡ I 2 X 2 Tab les X * / W P h ? , M cNem ar. Fisher exact : Select the desired


nonparametnc
Observed veisus expected X 2
tecmque
§H Correlations (Spearm an, Kendall tau, gamma)
W ald-W olfow itz runs test
¡jjfjj M ann-W hitney U test
[I’t’jj Kolmogorov-Sm irnov two-sample test
ES
E-tK3IKruskal-Wallis ANOVA, median test
-3
|g€] Sign test
[§2I W ilcoxon m atched pairs test
IDUfi Friedman A N O V A & Kendall's concordance
Cochran Q test 1 ^ O pen fixate
surer
Ordinal descriptive statistics (median, mode. . .) mils *: & w

4.- Seleccionamos nuestras variables

¿gjjjKruskal-Wallis ANOVA and Median Test


Variables ¡ipiOiM
Grouping variable: P R O F E S O R Cancel •
D ependent variables: CALIF

Codes: none

SIgx « »rhtskcr. t |
surer „
sjEta runs *
a
O w

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 6.2.

88
ÜgKiuskal-Wallis ^NOVA by Ranks (nonp33.sta) m m m
NONPAR Independent (grouping) variable: PROFESOR
STATS Kruskal-Wal1 is test: H ( 2, N= 40) = 1, 07 5 24 6 p =, 5841
Depend.: Valid Sum of
CALIF N Ranks
1____________ 1_____S 12 245, 0 00 0
Group 2 2 15 340, 0 00 0
Group 3 3 13 235, 0000
l-l n
Tabla 6.2. Resultados de la prueba de hipótesis que proporciona el
paquete STATISTICA.

89
7. PRUEBA DE F DE FRIEDMAN PARA DISEÑOS EN
BLOQUES ALEATORIZADOS.

La prueba F r de Friedman es una prueba no paramétrica para


comparar las distribuciones de las mediciones para k tratamientos,
dispuestos en b bloques, utilizando un diseño en bloques aleatorizados. El
procedimiento para realizar la prueba es muy similar al usado por la
prueba H de Kruskall-Wallis. El primer paso en el procedimiento es
ordenar las k observaciones de los tratamientos dentro de cada bloque. Se
manejan los empates en la manera usual, es decir, reciben un promedio de
los rangos de las observaciones empatadas. Se obtienen luego las sumas de
los rangos Tx,T2,...,Tk\ y se calcula la estadística de prueba

12 k
£ 7 ^ 3 * (* + l)
bk(k + 1) ;=i i
El valor de la estadística F r obtendrá un mínimo cuando las sumas de
los rangos son iguales, es decir, T x= T 2= . . . = T k y aumentará en valor al
incrementarse las diferencias entre las sumas de los rangos. Cuando el
número k de tratamientos y el número b de bloques es mayor que 5, la
distribución muestral de F r puede aproximarse mediante la distribución
una distribución ji cuadrada con (¿-l) grados de libertad. Por lo tanto,
como para la prueba H de Kruskal-Wallis, la región de rechazo para la
prueba F r esFr > x l -

A continuación se resume el procedimiento para probar hipótesis


mediante el empleo de la prueba F r de Friedman.

1 . Hipótesis nula: Las k distribuciones poblado nales son idénticas.


2. Hipótesis alterna: Por lo menos dos de las k distribuciones poblacionales
difieren en ubicación.
3. Fijar el nivel de significancia a . i
4. Región crítica: F r >-xl con k - 1 grados de libertad.
5. Estadístico de prueba.
12
F = £77-3S(* + l)
bk{k + \ ) t

90
donde:

b =Número de bloques
k =Número de tratamientos

C=Suma de los rangos para el tratamiento i, con i = \,2 ,-,k

6 . Decisión. Rechazar H0 cuando Fr> xl

Ejemplo No. 14 Prueba F r de Friedman para diseños en bloques


completamente aleatorizados.
i

En un almacén de ropa se van a adquirir nuevas máquinas


registradoras y la administración se encuentra indecisa entre tres modelos
distintos. Para comparar los modelos se instala un ejemplar de cada uno.
En cada uno de tres días sucesivos una cajera opera cada modelo, y la
experiencia se repite con 5 cajera. Se 'registra el número de errores
cometidos. Los resultados se presentan a continuación.

Modelo
Cajera
I II III
1 15 19 17
2 25 28 27
3 19 18 24
4 12 13 19
5 8 9 12

Use una prueba de Friedman para decidir si hay diferencia entre los
modelos por lo que toca al número de errores cometidos. Utilice a=0.10

Solución:

1. H(): Hay diferencia entre los modelos por los errores cometidos.

2. Hx: No hay diferencia entre los modelos por los errores cometidos.

3. Nivel de significancia, a = 0.10

. 4. Región crítica. Fr > Xow = 4.605 con 3-1=2 grados de libertad.

91
5. Cálculos. En la tabla siguiente se convierten las 15 observaciones"!*
rangos, las cuales se suman para obtener los Ti. ^

Modelo
Odjerd
I T! II t2 III T:v
1 15 (1) 19 (3) 17 (2)
2 25 (1) 28 (3) 27 (2)
3 19 (2) 18 (1) 24 (3)
4 12 (1) 13 (2) 19 (3)
5 8 (1) 9 (2) 12 (3)
6 l 11 13

Ahora, al substituir 6=5, k=S. Ti =6 , T¿ =11 y Ts =13, el estadístico


Fr asume el valor, i

12
F. = (é! +112 +131)-3(5X3 + l)
5(3X3 + 1)

F, = -(3 2 6 )-6 0 = 5.2


60

6. Decisión: Se rechaza H0 si Fr)^xl- Cómo (F = 5.2)^(^J10 = 4.605)


entonces se rechaza H0 y concluimos que no hay diferencia entre los
modelos por los errores cometidos.

a Solución con el paquete STATISTICA.

> Creación de la base de datos.

La introducción de la base de datos en el paquete se realiza como se indica


a continuación:

92
1 .- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o d u le Sw itch e r

^ 1 . Basic Statistics Nonpa-ametrc tests


(between and within
IMlN o n p a i a m e t i i c s / D i s t i i b .
ggAN O VA/M AN OVA correlations observed
expected ,*? )
Multiple Regression Ordinal descriptive
statistics (percentiles,
Nonlinear Estimation
median, mode, .J:
Tim e Series/Forecasting Fitting vanous
continuous and disciete
T Cluster Analysis
distributions to data
|1 Data Management/MFM
t Factor Analysis

StntSdft Sw itch T o Customize list i

E n d & Sw itch T o Caned

2 .- Capturamos nuestra base de datos de la forma siguiente

r4 S T A T I S T I C A : N o n p a r a m e t i i c S ta tis t

ü Eile Edit V ie w Analysis graphs ||

fií
q

lim m m

I
s
i!
I
SSi q |1:

-----2 1 3 11
I
i

Nur
V
AI

IS r î t 000 1 19,000: 17,000


[MODELII MODELIII

P'42k 25,. 000! 28.000


19,.000: 18,000
27.000
24.000Í
12,.000! 13,000 19.000>
l i 8..000 9.000 12.000:

93
3.- Seleccionamos la opción Friedman ANOVA & Kendall's
concordance

is Nonparamelric Statistics

C Distribution fitting Í Ü ____


Cancel
Uonparametric Statistics:
¡|j{|j 2 x 2 Tables ^ / W P h P . McNemar. Fisher exact Select the desired
|x| Observed versus expected X*
| Correlations (Spearman, Kendall tau, gamma]
ü Wald-Wolfowitz runs test
Ü.:;Ü Mann-Whitney U test '
i§7j Kolmogorov-Smimov two-sample test
jfH Kruskal-Wallis ANOVA. median test
HiH Sign test i
[|§ j Wilcoxon matched pahs test

Ü Friedman A N O V A t¡ Kendall's con cor dan ce


Cochran Q test Ê ? Open Data

Ordinal descriptive statistics (median, mode....]


aim
itdssiiSi Ô S

4.- Seleccionamos nuestras variables

imFriedman A N O V A by Ranks

Variable»: ) MODELI-MODE LIU


Box & whisker

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 7 . 1

94
jggFiiednian ANOVA and Kendall Coell. el Cuncuidance (nonp35.sta) 1S B
ÀNOVA C h i S q r . (N = 5, d£ = 2 ) = 5. 200000 p < . 07429
Continue...
C o e f f . of C on cord a n ce = , 52000 A v e r , ra n k r = , 40000

Kean Std Dev


6.00000 15. 80000 6. 534523
MODELII 2.200000 11,00000 17. 40000 7/162402
MODELI I I 2, 600000 13, 00000 19. 80000 5, 890670
n
Tabla 7.1 Resultados de la prueba de hipótesis que proporciona
el paquete STATISTICA:

NOTA: En este Capítulo la solución al ejemplo fue únicamente en forma


manual y con el paquete STATISTICA ya que el paquete STATA no cuenta
con la prueba de Friedman.

95
8. EVALUACIÓN DE BONDAD DE AJUSTE

Recordemos que una hipótesis estadística es una afirmación con respecto


a una característica que se desconoce de una población de interés. Cuando
se estudiaron las pruebas paramétricas fue, en forma exclusiva, el valor de
algún parámetro#. En este apartado se examinarán las pruebas de
hipótesis estadísticas en las que las características que se desconoce es
alguna propiedad de la forma funcional de la distribución que se muestrea.
En forma tradicional, este tipo de prueba recibe el nombre de bondad de
ajuste ya que ésta compara los resultados de una muestra aleatoria con
aquellos que se espera observar si la hipótesis nula es correcta. La
comparación se hace mediante la clasificación de los datos que se observan
en cierto número de categorías y entonces comparando las frecuencias
observadas con las esperadas para cada categoría. Para un tamaño
especifico de error tipo I, la hipótesis nula será rechazada si existe una
diferencia suficiente entre frecuencias observadas y las esperadas.

8.1 La prueba de ji-cuadrada para bondad de ajuste


u
Una prueba de bondad entre frecuencias observadas y esperadas se basa en
la cantidad

donde j 2 es el valor de una variable aleatoria cuya distribución muestral


se aproxima muy cercanamente a una distribución ji-cuadrada con k- 1
grados de libertad, si n es un valor suficientemente grande.
Si existe una concordancia perfecta entre las frecuencias que se observan y
las que se esperan, la estadística tendrá un valor igual a cero; por otro lado,
si existe gran discrepancia entre estas frecuencias, la estadística tomará un
valor muy grande. Por ello se desprende que para un tamaño dado del error
tipo 7, la región crítica es el extremo Superior de una distribución ji-
cuadrada con k- 1 grados de libertad.
A continuación se presentan varios ejemplos que ilustran los
procedimientos para evaluar bondad de ajuste mediante la prueba ji-
cuadrada. i

b ib l io t e c a
96
Ejemplo No. 15 Prueba ji-cuadrada para bondad de ajuste a una
distribución Uniforme.

Las calificaciones aprobatorias en un curso de cálculo para el primer


semestre de la Facultad de Estadística fueron los siguientes:

Calificaciones 6 7 8 9 10

Frecuencias
15 19 31 21 16
observadas

Pruebe la hipótesis, con un nivel de significancia de ^0.05, que la


distribución de calificaciones es uniforme.

Solución: :

1 . Ho : La distribución es uniforme.
2. Hi : La distribución no es uniforme.
3. Nivel de significancia a = 0.05 -

4. Región de rechazo, x > X a con £ -1 g-A

Con 5 -1 = 4 g.l. se tiene j 2 > Zoos = 9.488


5. Cálculos:

Calificaciones 6 7 8 9 10

Frecuencias observadas: oí 15 19 31 21 16
Frecuencias esperadas: e¿ 20.4 20.4 20.4 20.4 20.4

Por tanto el estadístico de prueba x 2 resulta

_ (15-20.4)2 (19-20.4)2 (31-20.4)2 (21-20.4) 2 (16-20.4)2


20.4 20.4 20.4 20.4 20.4

= 1.43 + 0.09607 + 5.508 + 0.0176 + 0.9490 = 8

97

i
/
6. Decisión. Se rechaza Ho si % 2 > X 2 a - Como ( % 2 = =9.488) no se
rechaza Ho y se concluye que la distribución de calificaciones es uniforme.

□ Solución con el paquete STATISTICA.

> Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación.

1 .- Entramos al modulo Nonparametrics/Distrib

S T A T IS T I C A Module Switcher H
jSÜl Basic Statistics Nonparametnc tests
(between and within
m Nonparametiics/Distrib. group difference tests,
correlations, observed-
m A N 0 V A/M A N O V A expected >?, ).
i / Multiple Regression Ordinal descriptive
statistics (percenti'es,
l£¿ Nonlinear Estimation mediar. mode. ).
Tim e Series/Forecasting Fitting varicus
continuous and discrete
Cluster Analysis
distributions to data.
D ata Management/MFM

& Factor Analysis

Sw itch T o Customize list..

E n d & Sw itch T o Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

^ S T A T I S T I C I A: Nonparan
I (F r file E.dit View Analysill
J |-9999. i|
ig j is jjis y ffl 1 5 & ! ¡1
NUI II
VAI 2
i 1
FR EC U EN C (e s p e r a d a
Si 15.000 20 400
2 19.000 20.400
3 31.000 20.400
4 21,000 20,400
5 16.000 20,400

98
3.- S eleccion am os la opción Observed versus expected X 2

^ Nonpaiametiic Statistics

¡Hü 2 x 2 T ablet tf/ W P h ? , McNemar. Fithet exact Select the desired


Obser ved versus expected X 2
In
on
pa
ta
metr
ic
| Correlations (Spearman. Kendall tau. gamma)
| Wald-Wolfovritz runt test
0 Marm-Whitney U test
H I Kolmogorov-Smirnov two-sample test
H ! Krutkal-Wallit ANOVA. median test
IIBU Sign test !
Q Wilcoxon matched pairs text j
|fjjjjjl Friedman ANOVA & Kendall't concordance
IHII Cochran Q test £ ? Open fiata
sa
ic
r i ordinai descriptive statistics (median, mode....) ; mmsr-
i&i mm

4.- Seleccionamos nuestras variables

g s lO b s e i v e d vs. E x p e c t e d F ie q u e n c y US
Variables Él jOKi ~1

with observed: F R E C U E N C Cancel


with expected E S P E R A D A
surer . I j=>
cas» £ I <E> g j

La prueba de hipótesis correspondiente,, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 8.1.

P H O b s e r v e d vs. E x p e c te d F re q u e n c ie s (n o n p 3 6 .sta B U I O

ontinue C h i - S q u a r e = .8,000000 df = 4 p < .091606

e x p e cte d (0 -E )* * 2
1 Cal ESPERADA 0 - E XE
6 15,0000 20.4000 : -5.40000 1 429412
: 7 19.0000 20.4000 : -1,40000 .096078
8 31,0000 20.4000 ; i o . 60000 5,507843
*' 21.0000 1j 20.4000 , .60000 .017647
10 16.0000 20.4000 -4 40000 949020
1 0 2 . Ò0Ò0 10270000 00000 8 000000

Tabla 8.1 Resultados de la prueba de hipótesis que


proporciona el paquete STATISTICA.

99
Ejemplo No. 16 Prueba ji-cuadrada para bondad de ajuste a una
distribución Normal.

La siguiente tabla resume la calificación obtenida por 60 estudiantes


en un examen final de Estadística.

Calificación Número de alumnos


50-59 8

60-69 15
70-79 : 20

80-89 12

90-99 5
Total 60

Utilice un nivel de significancia a = 0.05 para decidir si la distribución de


calificación puede representarse bien por una distribución normal.
i
Solución: !

1 . Ho: La distribución es normal.


I
2. Hi : La distribución no es normal. ¡

3. Nivel de significancia a = 0.05

4. Cálculos.

En la tabla dada se realizan los cálculos necesarios para estimar ¡u y a 2,


obteniendo la tabla siguiente:

Intervalo de fi f i xi fi* f
clase
50-59 8' 54.5 436 23762
60-69 15 64.5 967.5 62403.75
70-79 20 74.5 1490 111005
80-89 12 84.5 1014 85683
90-99 5 94.5 472.5 44651.25
Total 60 4380 327505

Calculando x como estimador de /i y s 2 como estimador de cr2 se tiene:

100
p ir u lí i ' O T F f
"L IC . J A V IE R J ü á R E . í S A IN ií^ h c Z
_ 1 UNIDAD ACADEMICA DE ECONOMIA Y
x = —I f x . = — (4380) = 73 ESTADÍSTICA
n ' ' 60 D N IV E R S II)A D V E R A C R 13ZANA\

S = I . / a ; - nx — Í327505 - 60(73)21= — (7765) = 129.42


n í=i 60L J 60

En el cálculo de s 2 se ha usado el divisor n, y no n-1. El estimador que usa


el divisor n es llamado el estimador de Máxima Verosimilitud, y tiene
mejores características para la aproximación a ji-cuadrada, por lo que debe
usarse en este caso. Otra recomendación es que la estimación de
parámetros se haga siempre con datos agrupados, y nunca con las
observaciones individuales.
Aunque ,los 5 intervalos de la tabla sólo cubren de 50 a 99, la distribución
normal puede tomar cualquier valor en (-°o,oo), por lo que es necesario
definir dos intervalos adicionales (-oo, 50) y (99, co).
Así las probabilidades para los siete intervalos utilizando la tabla A.3., son
los siguientes:

P] = P(x < 50) = P(x < 49.5) = P(Z < -2.06) = 0.0197

P2 = P(50 < x < 59) = P(49.5 < x < 59.5) = P(-2.07 < Z < -1.19) = 0.0973

P3 = P( 6 0 < x < 69) = P(59.5 < x < 69.5) = P(-1.19 < Z < -0.31) = 0.2613

P4 = P(70 < x < 79) = P(69.5 < x <79.5) = P ( - 31 < Z < 0.57) = 0.3374.

P5 = P(80 < x < 89) = P(79.5 < x < 89.5) = P(0.57 < Z < 1.45) = 0.2108.

P6 = P(90 < x < 99) = P(89.5 < x < 99,5) = P(1.45 < Z < 2.33) = 0.0636.

p 7 =p (x > 99) = P(x > 99.5) = P(x > 2.33) = 0.0099.

Con las p¡ podemos calcular las frecuencias esperadas e¿ con ej = npi y


formar la tabla de valores observados y esperados como se muestra a
continuación:

101
Limites de

il
1
clase fi = o¡
Menos de 50 0 1.182
50-59 8 - 5.838
60-69 15 15.678
70-79 20 20.244
80-89 12 12.648
90-99 5 3.816
Más de 99 0 0.594

Ahora, como existen intervalos que tienen valores esperados muy pequeños
podemos unirlos en uno solo y obtenemos la tabla siguiente

Limites de clase fi = ot c-
Menos de 59 8 7.020
60-69 15 15.678
70-79 20 20.244
80-89 17 17.058
■y
Por lo tanto el estadístico x resulta

^2 j - (°¿ ~ ei ) 2 __ (8-7.020) 2 |(15-15.678)2 |(20-20.244)2 |(17-17.058)2


;=1 7.020 15.678 20.244 17.058

=0.1368091 + 0.0293203 + 0.0029409 + 0.0001972 = 0.169


5. Región de rechazo x > Xa con k - l g.l.
' -y
Como el cálculo para la x se realizó con cuatro intervalos de clase, resulta
entonces k-1=4-1=3 g.l. Por lo tanto la región de rechazo esta dada por

' r - ’ si?

6. Decisión. Se rechaza Ho si x 1 ■> Xa- Como ( z 2 = 0 .1 6 9 ) (xlm =7.815),


entonces no se rechaza Ho y se concluye que las calificaciones obtenidas
siguen una distribución normal

102
□ Solución con el paquete STATISTICA.

V Creación de la base de datos


La introducción de los datos en el paquete se realiza como se indica a


continuación.

1 .- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o d u le S w itc h e i

Basic Statistics Nonparametric tests

ÌM. Nnnpaiameliics/Distiib.
correlations. observed-
sa A N O V A /M A N O V A expected ><?...)
Multiple Regression
Nonlinear Estimation ■
statistics (percentiles,
! métfiáfíl-niófcfeU.,);-'
Tim e Series/Forecasting Filling various
continuous and discrete
Cluster Analysis
distributions to data.
Data Management/MFM
Factor Analysis

^ it ^ T ^ jj fuslomi7e list

E n d & Sw itch T o Cancel


J

2 .- Capturamos nuestra base de datos de la forma siguiente:

103
3.- S eleccion am os la op ción Observed versus expected X 2

gag Nonpaiametiic Statistics

slots r Distribution fitting


QK I
Cancel
ffcmparametric Statistics:
Ü|]|¡ 2 X 2 T ablet X i /VI /PhF. McNemai, Fithei exact Se:ect the desueti
------------------------------------------------------------------ nonparametnc
m Obseiv ed versus expected X2

I Correlations (Spearman. Kendall tau. gamma)


tecnraque ;¡1¡|¡¡1

I Wald-Wolfowitz tuns test


¡H I Mann-Whitney U test
| f| Kolmogorov-Smirnov two-sample lest
Kruskal-Wallit ANOVA. median test
m Sign test
H I Wilcoxon matched pairs test
^ ¡ Friedman ANOVA & Kendall't concordance
IlHi Cochran Q test
snw . Ä _
.¿¿til Ordinal descriptive statistics (median, mode___) : «m SiMäliiPWi®

4.- Seleccionamos nuestras variables

33 O b s e rv e d vs. E x p e c te d F re q u e n cy

y V ariables | i a* 1
with obseived A L U M N O S C a nce l |
with expected. E S P E R A D

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 8.2.

H ü!!!
= = <
|*§j§Obseived vs. Expected Fiequencies (nonp37.sta)
NONPAR C h i -S q u a r e , 169 2 67 6 df 3 p , 98 2 3 91
STA TS

1 1 e x p e c te d
1 Æ
(0 -E )* * 2
1
PI

TTCOCOXn
0

C a se \

"T
Menos de 59 8.00000 7.02000 , 980000 . 13 6 8 09
60-69 . 15. 00000 : 15. 67800 -.678000 . 029320

m .
7 0 -7 9 20.00000
!
2 0 . 2 4 4 0 0 ; - , 244000 . 002941

lilt-A Bl□
1 1 7 . 0 0 0 0 0 1 1 7 . 0 5 80 0 -.058000 . 000197
ran
Tabla 8.2 Resultados de la prueba de hipótesis que proporciona
el paquete STATISTICA.

104
Ejemplo No. 17. Prueba ji-cuadrada para bondad de ajuste a una
distribución Poisson.

En un estudio sobre la distribución de la demanda diaria de un


articulo en particular de un comercio, dio los siguientes resultados.

Artículos vendidos 0 1 2 3 4 5 6 Total


Número de días 14 25 20 12 5 3 1 80
i

pruebe la hipótesis con un nivel de significancia de 0.05 que los datos


registrados se ajustan a una distribución Poisson.

1. H o: La distribución es Poisson.
2 . Hi : La distribución ¿o es Poisson.

3. Nivel de significancia a - 0.05


4. Cálculos:

Recordemos que la función de probabilidades Poisson tiene la siguiente


expresión:

P(x,yl) = ; * = 0 ,1,2 ,...


x\

donde A es la media y es el único parámetro de la distribución. El primer


paso es estimar A, lo cual hacemos a través de x , calculada por la
expresión

I /, *, (14X0) + (25)0) + (20)(2) + (12X3) + (5X4) + (3)(5) + ( 1)(6 )


x —
i/;. 80

0 + 25 + 40 + 36 + 20 + 15 + 6 142 , w ^
- — !------- ---------------------- -------= 1.775 = 2
80 80

105
La prueba de bondad de ajuste se hará entonces con respecto a una
distribución de Poisson con A = 2 .' Aunque en las observaciones sólo se
tienen 7 clases, debe recordarse que la variable aleatoria Poisson puede
tomar cualquier valor' entero positivo. Por eso, y con el objeto de que
=L es conveniente definir una clase extra con 7 o más errores, para la
cual:
Pt = P (x> l,X ) = \ -P (x < 6 )

utilizando la tabla A.2 las probabilidades pi resultantes se presenta a


continuación:

p, =P(0,2)=0¡1353
p 2 = P(l, 2) = 0.2707
p 3 =P( 2, 2) =0:2707
p 4 =P(3,2) = 0.1804
p 5 = P(4, 2) = 0.0902
p 6 = P ( 5,2)= 0.0361
p 7 = P ( 6, 2) = 0.0121
p t = P (7 ,2) = 0.00034

Con las p, podemos calcular las frecuencias esperadas e¡ = npt y formar la


tabla de valores observados y esperados como se muestra a continuación:

Artículos o, e,
vendidos
0 14 10.824
1 25 21.656
2 20 21.656
3 12 14.432
4 5 7.216
5 3 2 .8 8 8

6 1 0.968
7 (o más) 0 0.272

Í06
Ahora, como las cuatro últimas clases tienen valores esperados muy
pequeños entonces conviene unirlas resultando la tabla siguiente:

Artículos
A
vendidos
0 14 10.824
1 25 21.656
2 20 21.656
3 12 14.432
4 (o más) 9 11.344

Por lo tanto el estadístico j 2 resulta,

, (14-10.824)2 (25-21.656)2 Í20-21.656)2 Í12-14.434)2 Í9-11.344)2


Z ~ 10.824 + 21.656 + 21.656 + 14.434 + 11.344

= 0.9319 + 0.5163 + 0.1266 + 0.4098 + 0.4843 = 2.46


5. Región crítica % 2 > %2
a con k - 1 g.l. <
como £-1 = 5 - 1 = 4 g.l. se tiene % 2 > % 205 = 9.488

6. Decisión: Se rechaza Ho si % 2 > xl- Como ( j 2 = 2.46) < (j 205 = 9.48),


entonces no se rechaza Ho y se concluye que los datos pueden ser
representados por una distribución Poisson.

□ Solución con el paquete STATISTICA.

> Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación.

107
1 .- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o d u le S w itc h e r

Basic Statistics Nonparametric tests


(between and within
Ëâll N o n p a r a m e t r i c s / D i s l r i b . group difference tests,
¡¡¡| a n ova /m anova
correlations, observed-
expected X*. },
\
/' Multiple Regiession Orifnaf descriptive
Nonlineai Estimation
statistics (percentiles,
median, mode. .];
9 Tim e Series/Foiecasting Fitting various
continuous and discrete
Cluster Analysis distributions to data
Data Management/MFM
Factor Analysis

Sw itch T o

E n d & Sw itch T o Cancel I

2.- Capturamos nuestra base de datos de la forma siguiente:

m S T A T I S T I C A : Non paiar

II¡ ^ 7 File Edit View Ana^sjl

||*9 9 9 9 È
Pt ® ü!o5 içEll©!
Mur
VAI

dA s
1 14, 00010,82400
2 2 5 . 000121. 65600
3'' 2 0 . 000121.65600
4 1 2 . 000114.43200
5 9 . 000111,34400

108
3.- S eleccion am os la op ción Observed versus expected X 2

N u n p .iia in e tiic S ty lis tic s

<* Nonfiatamctnc ««_*• C Distribution fHtmg B ...... 0K

Nonpatamebic Stántict:
2 x 2 Tables X*A^/Ph?. McNemar. Fishef exact ;.s Select ihe desired
norparametri!
¡pii Qbseiv ed veisus expected X 2
techiq^e.
y Correlations (Spearman, Kendall lau. gamma]
(f~X|{j Wald-W ollawilz tuns lexl
tf'tjj Mann-Whitney U lexl
}fjg§ Kdlmogoiov-Smhnov two-sample test
jU g Kruskal-Wallit A N O V A . median test
[E3] Sign text
Wilcoxen matched pails test
Friedman A N O VA t Kendall's concordance
tttlS Cochran Q test £? Ope«>fìat*1
f J U i Ordinal descriptive statistics (median, mode. ...)

4.- Seleccionamos nuestras variables

pisaQ b s e iv e d
issi v s . E x p e c te d F ie q u e n c y

Variables

with o b se rve d: D IA S
with e xp e cte d: E S P E R A D

La prueba de hipótesis correspondiente, mediante el empleo del paquete


STATISTICA, proporciona los resultados que se presentan en la Tabla 8.3.

'jj||O bse rve d


Expected Frequencies (nonp38.sta)
vs. HBBi
NONPAR Chi-Square = 2.469068 df = 4 p < ,650186
STATS NOTE: Unequal sums of obs. & exp. frequencies —

expected (O - E ) * * 2
Case ESPERAD 1 0 - E /E
0 14,00000 10,82400 3 17600 .931908
!1 25,00000 21,65600 3.34400 ! .516362
■2- . 20,000ÖÖ 21,65600 -1,65600 ! .126632
;3 12,00000 14,43200 ; -2.43200 .409827
9.00000 1 11,34400 I -2.34400 .484338
- Sum 80,00000 79 91200 ! ,08800 2.469068
1 □
Tabla 8.3 Resultados de la prueba de hipótesis que proporciona el
paquete STATISTICA.

109
Ejemplo No. 18 Prueba ji-cuadrada para bondad de ajuste a una
distribución Binomial.

Un agricultor que siembra fruta afirma que el 70% de su cosecha de


durazno ha sido contaminada por la mosca del mediterráneo. Se
inspeccionan 4 duraznos y se registran el número x de duraznos
contaminados por la mosca del mediterráneo. Después de repetir el
experimento 80 veces se obtuvieron los siguientes datos.

X 0 1 3 2 4
25 38 13 4 0

Pruebe la hipótesis, con un nivel de significancia de 0.01, de que los


datos registrados pueden ser representada por la distribución binomial
b(x; 4, 0.7), x = 0,1,2,4.

Solución:

1 . Ho: La distribución es binomial.


2 . Hi: La distribución no es binomial.
3. Nivel de significancia a = 0 . 0 1
4. Cálculos:
Recordemos que la función de probabilidades binomial tiene la siguiente
expresión:
ín\
P, = b(x, p) = pxqn*,x = 0 ,l , 2
vU
Utilizando la tabla A.l, las probabilidades /^resultantes se presentan a
continuación:
p, =6(0,4,0.7) = 0.0081

Pi = ¿(1,4,0.7) = 0.0756

p 3 =b(2,4,0.7) = 0.2646

p 4 =¿(3,4,0.7) = 0.4116
p 5 =¿(4,4,0.7) = 0.2401
BIBLIOTECA
"L!C. JAVIER JUAREZ SANCHEZ'
110 UNIDAD ACADEMICA DE ECONOMIA V
ESTADISTICA
I J NI Vl i KS I I M D V E K A C R U Z A N A
Con las /^podemos calcular las frecuencias esperadas e, comoe, -npi y
formar la tabla de valores observados y esperados como se muestra a
continuación:

X V
0 25 0.648
1 38 6.048
2 13 21.168
3 4 32.928
4 0 19.208

Ahora, como la primera clase (x = 0) tiene un valor esperado muy


pequeño entonces conviene unirla con x = 1 , resultando la tabla siguiente:

X o]
Oó 1 63 6.696
2 13 21.168
3 4 32.928
4 0 19.208

Así, el cálculo de %l resulta,

, Í63-6.696)2 (13-21.168)2 Í4-32.928)2 Í20-18.07)2 Í0-19.208)2


X ~ 6.696 + 21.168 + 32.928 + 18.07 + 19.208

= 473.43 + 3.15 + 25.41 + 19.208 = 521.19

5. Región de rechazo x 1 > xl con k ~ 1 S-k

como k-1 = 4-1 = 3 g.l. se tiene x 1 > xlm = 11-34

6. Decisión: Se rechaza Ho si x 2 > xl - Como ( x 2 =521.19) > (x lM=11.34),


entonces se rechaza Ho y se concluye que los datos no representan una
distribución binomial.

ni
□ Solución con el paquete STATISTICA.

y Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación.

1 .- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o d u le S w itch e i

m. Basic Statistics ^ Nonparametrrc teas


(between and within
m u ^onpaiainelucs/Dislnb. ifB group difference tests
j^ A N O V A / M A N O V A correlations, observed-
expected X s }.
\;0: Multiple Regression — ' Orainal desc'iptive
statistics (percentiles,
It y Nonlinear Estimation
median, mode, ),
1.'-^ Time Series/Forecasting Fitting various
continuous and discrete
p T Cluster Analysis distribu'ions to data.
||iifj Data Management/MFM
Factor Analysis ;*¡ij

Switch T o Customize list... |

m End & Switch T a Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

STATISTICA: Nonparai
¡F? Fie ¿dit View Analy:

T
E>
V
AI
1
OBSERVAD
63. 000 6. 696
I 13. 000 21, 168
3/ 4, 000 32. 928
4 0.000 19. 208

112
3.- S eleccion am os la opción Observed versus expected X 2

Nonparametiin Statistics I? | X |

ÎI
öah Distribution fitting
Cónce! '
Honpar amebic Statistic*.
2 X 2 T able* X * / W P h ? . McNemai. Fisher exact Setetí the deseed
------------------------------------------------------------------- ------------ 1— ronpa-ametiic
O bs er ved versus expected X* techrsquc
I Correlation* (Speaiman. Kendall tau. gamma)
jjjffiWaM-Wolfowitz run* test
j'tH Mann-Whitney U test
fjttj Kolmogotov-Smirnov two-sample test
j jf i Kruskal-Wallis AN O VA. median test
Ü Sign test
| | Wilcoxon matched pans test
H id Friedman A N O VA & Kendall’s concoidance
u n i Cochian Q test uEf? Open Hata |
stun .
¿Sfll Oidinal descriptive statistics (median, m o d e ....) : 'MIS £ ] ^ g

4.- Seleccionamos nuestras variables

O b s e r v e d vs. E x p e c t e d F r e q u e n c y SE
,.SQ Variables mi íflk; 1
with observed: O BSER V AD Cancel
with expected: E S P E R A

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 8.4.

|*j¡§Obseived vs. Expected Frequencies (nonp39.sta) HI0ÍI13!


NONPAR C h i-S q u a r e = 521, 2116 df = 3 p < 0. 000000 ««V
S TA TS
I e x p e c te d (0-E )**2 1
Case 1 ESFERA 0 - E ✓ E !
0 o 1 63, 00000 6. 69600 ’ 56, 3040 473. 4379
'2 13, 00000 | 21. 16800 -8.1680 3. 1517
3 4, 00000 32. 92800 i - 2 8 . 9 2 8 0 .......2 5 , 4 1 3 9 ..... i
’ 0.00000 3 19. 20800 - 1 9 2080 19. 2080
Sum 8 0 , 0 0 00 Ö 80, 00000 0 0000 521 2116
-il □
Tabla 8.4 Resultados dé la prueba de hipótesis que proporciona el
paquete STATISTICA.

113
Ejemplo No. 19 Prueba ji-cuadrada para bondad de ajuste a una
prueba Hipergeométrica.

De un lote que contiene 3 artículos defectuosos y 7 buenos se eligen


tres al azar. Después de registrar el número x de artículos buenos
seleccionados estos se regresan al lote. El experimento se repite 90 veces,
obteniéndose los siguientes resultados

* 0 1 2 3
O, 2 25 44 19

Pruebe la hipótesis con un nivel de significancia de 0.01 que los datos


registrados pueden ser- representados por la distribución hipergeométrica
h{x\ 10,3, 7), * = 0,1,2,3.

Solución:

1 . Ho: La distribución es hipergeométrica


2. Hi: La distribución no es hipergeométrica
3. Nivel de significancia a = 0 . 0 1
4. Cálculos:

Recordemos que la función de probabilidades hipergeométrica tiene la


siguiente expresión:
(k\ N-k'
n -x
p = h(x\ N , k ) , x = 0 , 1 , 2 , ..
(N'\
Kn J

Por lo tanto, las probabilidades /^resultantes se obtienen a


continuación:
p, =/i(0;10,3,7) = 1/120 = 0.0083
p 2 =A(1;10,3,7) = 7/40 = 0.1750
p 3 =h( 2;10,3,7) = 21/40 = 0.5250
p 4 =h( 3;10,3,7) = 7/24 = 0.2917

114
Con las pi resultantes podemos calcular las frecuencias esperadas
e. como e, = np¡ y construir la tabla de valores observados y esperados como
se muestra a continuación:

X o,
0 2 0.75
1 25 15.75
2 44 47.25
3 19 26.25

Ahora, como la primera clase (x = 0) tiene un valor esperado muy


pequeño entonces conviene unirla con x = 1 , resultando la tabla siguiente:

X °i
Oó 1 27 16.50
1 44 47.25
3 19 26.25

El valor x 2 resulta,

, _ (27 - 16.5)2 |(44-47.25)2 , (l9-26.25):


X = +- = 6 . 6 8 + 0.22 + 2 = 8.90
16.5 47.25 26.25

5. Región crítica x 2 > xl con ^ _ 1 gl

como k-l = 3-1 = 2 g.l. se tiene x 2 > xlo\ =9.21

6. Decisión: Se rechaza Ho si x 2 > xl- Como ( j 2 = 8.90) < (xlo\ = 9.21),


entonces no se rechaza Ho y se concluye que los datos representan una
distribución hipergeométrica.

115
□ Solución con el paquete STATISTICA.

>' Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación.

1.- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o dule Sw itch e i

\iM Basic Statistics Nonparametac tests


[between and within
Ü 5 ! N o n p a i ameti i c s / D isti ¡b. group difference tests,
^ A N O VA/M A N O VA' correlation; observed
expected >?, ).
\0 Multiple Regression Orcinat descriptive
Nonlinear Estimation
median, mode. . J,
Time Series/Forecasting Fitting various
continuous and discrete:
Cluster Analysis
distributions to data.
Data Management/MFM
Factor Analysis

Switch T o 1 Customize list

End tí Switch To Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

•^STATISTICA: Nonpaian
K ¡ File Edit V=ew Analisi

11-9999. i
g mmmm m a l
Nurj
VAL
i 1BSBEgMllI
Fi
O BSER VAD
27.000 16.500
ld3¿] 44. 000:
19.000
47.250
26.250

116
3.- S eleccion am os la op ción Observed versus expected X 2

; Nu np .u iim td iic SLilisiins

c Dtthibution luting fi*


Cancel
3 Statistic*'
^ 2 * 2 T a bles XW */Ph?. McNemar. Fisher exact ¡ Select the deaed
nenpaumetnc
O b s e r v e d versus ex pe cte d X 2 tecmiuue
Collelationi (Spearman. Kendall tau. gamma)
Wald-Wollowitz runs test
i S l Mann-Whitney U test
m Kobnogorov-Smxnov two-sample test
Kruskal-Wallis AN OVA. median test
Sign test
Witcoxon matched paiis test
BSÜIFiiedman AN OVA t Kendair* concoide nee
iyj_________________________
Cochran Q test & Op«»fiatai
¿«rii Ordinal descriptive statistics (median, mode, ...) limit| Æmh)

4.- Seleccionamos nuestras variables

§ O b s e r v e d vs. E x p e c t e d F i e q u e n c y

:ßK;
with observed: OBSERVAD Cancel |
with expected: ESPERADO
«tèss £■Jô h J
«IT T

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 8.5,

i’j H O b s e i v e t J v s . E x p e c t e d F i e q u e n c i e s (n o n p 4 0 . x t a ] H H íü íé íJ ^ !
NONPAR C h i-S q u a re = 8.907744 df ■= 2 p < .011641
STATS
6i(p@Ct@di (0 -E )* * 2
Case ESPERADO 0 - E ''E
0 ó 1 27,00000 16.50000 i 10.50000 6.681818
2 ¡ 44.00000 47,25000 -3.25000 ,223545 1

> 1 19.00000 1 26.25000 -7 25000 2 002381


Sum [90700000 90,00000 0,00000 8.907744

Tabla 8.5 Resultados de la prueba de hipótesis que proporciona


el paquete STATISTICA.

117
Ejemplo No. 20 Prueba ji-cuadrada para bondad de ajuste a una
prueba Geométrica.

La Probabilidad de que un estudiante para piloto apruebe el examen


escrito para obtener su licencia de piloto privado es 0.7. Se examinan a 100
estudiantes y se registran el número x de intentos hasta que el estudiante
aprueba el examen, obteniéndose los datos siguientes:

X 1 2 3 4 5 6

54 23 14 6 2 1

Pruebe la hipótesis con un nivel de significancia de a = 0.01 que la


distribución observada de x puede sér representada por la distribución
geométrica g(jc; 0.7), x = 0,1,2,3...

Solución:

1 . Ho: La distribución es geométrica '


2 . Hi: La distribución no es geométrica
3. Nivel de significancia a = 0.01
4. Cálculos:

Recordemos que la función de probabilidades geométrica tiene la


siguiente expresión:
Pi = g(x; p) = pqx~l x = 1,2,3...

Por lo tanto, las probabilidades ptresultantes se obtienen a


continuación:

/V = g(l, 0.7) = (0.7X03)° =0.7


p 2 = g(2 , 0.7) = (0.7X03)’ = 0 . 2 1
p 3 = g( 3 ,0.7) = (0.7)(03)2 = 0.063

p 4 =g(4,0.7) = (0.7)(03)3 =0.0189


p s = g (5 , 0.7) = (0.7)(03)4 = 0.00567
p 6 = g(6,0.7) = (0.7)(03)5 =0.0017

118
Aunque en las observaciones sólo se tienen 6 clases, debe recordarse
que la variable aleatoria geométrica puede tomar cualquier valor entero
positivo. Por eso, y con el objeto de que = 1 , es conveniente definir una
clase extra con 7 o más lanzamientos. Por lo que:

Pl = P(X >l , p) = \-P (X < 6 ) = 1-0.9994 = 0.0006

Ahora con las p, podemos calcular las frecuencias esperadas


ei como e, = nPi y construir la tabla de valores observados y esperados como
se muestra a continuación:

X 1 2 3 4 5 6 7 ó más
54 23 14 6 2 1 0

70 21 6.3 1.89 0.567 0.17 0.051

Ahora, como las últimas 4 clases tienen valores esperados muy


pequeños entonces conviene unirlas, resultando la tabla:

1 2 3 4 ó más
X
o, 54 23 14 9
e, 70 21 6.3 2.67

Así el estadístico de prueba x 1 resulta,

(54-70)2 |(23 21) 2 |(14-6.3)2 |(9-2.67)* _ ; ; ^


X : . 70 21 6.3 2.67

5. Región crítica 'x 1 > xl con k - 1 g.l.

como k-1 = 4-1 = 3 g.l. se tiene j 2 > xlm = 11.34.

6. Decisión: Se rechaza Ho si x 1 > XÍ- Como ( x 2 = 28.26) >- (zlos = 11-34),


entonces se rechaza Ho y se concluye que los datos no se comportan como
una distribución geométrica.

119
□ Solución con el paquete STATISTICA.

'y Creación de la base de datos

La introducción de los datos en el paquete se realiza como se indica a


continuación.

1.- Entramos al modulo Nonparametrics/Distrib

S T A T I S T I C A M o du le S w itc h e i

¡¿id Basic Statistics Nonparametric tests


(between and v“Shin
N unpai auleti ¡cs/D isti ib. group difference tests
m A N O V A /M A N O V A correlations observed
expected }.
i/ Multiple Regression Ordinal descriptive
statistics (percentiles,
Nonlinear Estimation
median, mode. . L
Time Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis
distributions to data.
Data Management/MFM
Factor Analysis i»

Switch T o I Custom»«? list

End & Switch To Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

•^STATISTICA: Nonpaian

1 C ? fife Edit \Aew Ana^si||


(-9999 i I
M
m im
Nurj
z z ü

1 1OBSERVAD J x i ' _J
ri 54. 000 70. 000
2j 23,0001 21.000
T l 14.000Î 6, 300
4i 9.000: 2. 670

120
3.- S eleccion am os la op ción Observed versus expected X 2

mm
t® Norurötmetitc staf* C Drstirbutton iftting J=E

¡ 2 * 2 T able* >?/VI/Ph?. McNemar. Fisher exact Select the detteti


n nanparamatric ■■■<:
O b sK ived v e is u s e x p e c ;l«il X*
I lechr”qu9
g|| Correlations (Spearman. Kendall tau. gamma)
^ Wald-Wolfowitz runs test
Mann-Whitney U test
)fX4i Kolmogorov-Smitnov two-sample test
Ktusfcal-Wallis ANOVA. median test
H i Sign test
[ggj Wilcoxon matched pairs test
[fjjjjj Friedman ANOVA & Kendall's concordance
Open &ata j
Ordinal descriptive statistics (median, mode. ...| SS S jô s j

4.- Seleccionamos nuestras variables

O b s e rv e d vs. E x p e c te d F re q u e n cy

Variables

with observed: O B S E R V A D Cantei :


with expected: E S P E R A D O

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 8 .6 .

jp Observed vs. Expected Frequencies (nonp41.sta) S1 Ü


Chi-Square = 28.26581 df = 3 p < , 000003
Continue. &
e x p e c te d (0-E)**2
1 Case ■ H H H B ESPERADO O - E Æ
1 54,0000 70,00000 -16,0000 3.65714
2 23,0000 21,00000 2,0000 .19048
i 3 14,0000 6.30000 7,7000 9,41111
mmmmm 9,0000 i 2.67000 6.3300 15 00708
Su 100,0000 99.97000 .0300 28.26581
IlLJ ► r
Tabla 8.6 Resultados de la prueba de hipótesis que proporciona el
paquete STATISTICA.

121
8.2 Prueba de Kobnogorov-Smirnov para bondad de ajuste

La prueba de Kolmogorov-Smirnov es un método no paramétrico para


probar si hay una diferencia significativa entre una distribución observada
y una distribución teórica de frecuencia. Esta prueba es, por lo tanto, otra
medida de bondad de ajuste de una distribución teórica de frecuencia como
lo es la prueba ji-cuadrada que estudiamos en la sección anterior.

Recordemos que para aplicar la prueba de ji-cuadrada cuando el


modelo propuesto bajo la hipótesis es continuo, es necesario aproximar el
modelo propuesto mediante el agrupamiento de los datos observados en un
número finito de intervalos de clase. Este requisito de agrupar los datos
implica tener una muestra de tamaño más o menos grande. De esta
manera, la prueba de bondad de ajuste ji-cuadrada se encuentra limitada
cuando el modelo propuesto es continuo y la muestra aleatoria disponible
tiene un tamaño pequeño. Una prueba de bondad de ajuste más apropiada
que la ji-cuadrada cuando el modelo propuesto es continuo, es la basada en
la estadística de Kolmogorov-Smirnov. Esta prueba no necesita que los
datos se encuentren agrupados y es aplicable a muestras de tamaño
pequeño.

8.2.1 Prueba de Kolmogorov-Smirnov para una muestra

La prueba para una muestra de Kolmogorov-Smirnov es una prueba


de la bondad del ajuste. Esto es, se interesa en el grado de acuerdo entre la
distribución de un conjunto de valores en la muestra (puntajes observados)
y alguna distribución teórica específica. Determina si razonablemente
puede pensarse que los puntajes en la muestra provengan de una población
que tenga esa distribución teórica.
Brevemente, la prueba lleva consigo la especificación de la
distribución de frecuencia acumulativa que ocurriría bajo la distribución
teórica y su comparación con la distribución de frecuencia acumulativa
observada. La distribución teórica representa lo esperado conforme a Ha. Se
determina el punto en el que estas dos distribuciones, la teórica y la
observada, muestran la mayor divergencia. La referencia a la distribución
muestral indica si hay probabilidad de divergencia tan grande con base al
azar. Esto es, la distribución muestral indica que una divergencia de la
magnitud observada probablemente ocurriría si las observaciones fueran
realmente una muestra aleatoria de la distribución teórica.
A continuación se resume el procedimiento para probar la hipótesis
de una muestra mediante prueba de Kolmogorov-Smirnov.

122

\
1. Planteamiento de las hipótesis. En esta prueba pueden plantearse los
tres tipos de hipótesis

a) H q : F(x) = F0 (x) vs F(x) * F0 (x)


b) H 0 :F(x) = FQ(x) vs Hy : F(x) < F0 (x)
c) H 0 :F(x) = F0 (x) vs Hv : F (x )> F0 (x)

2. Fijar el nivel de significancia a.

3. Estadístico de prueba. Para cada uno de los tres juegos de hipótesis se


utiliza respectivamente:

a) D = Máximo p ( x ) - F 0( x )
b ) D - M áximo (F0( x ) - Ó '(x)}
c ) D = M áximo { ó '( x ) - F0( x ) }

La estadística D, cuya distribución es conocida, esta tabulada para


distintos tamaños de muestra n.

4. Decisión: La hipótesis nula se rechaza si D > D n, a donde D n, a es un valor


de tablas para valores dados de n y de a (Tabla A. 10).

Ejemplo 21.Prueba de Kolmogorov-Smirnov de bondad de ajuste a


una distribución Normal.

Los contenidos de nicotina en miligramos, de 9 cigarrillos de una cierta


marca se registran de la siguiente manera.

1.09 1.79 2.03 1.63 1.69 0.85 1.64 1.51 2.55

Utilice un nivel de significancia de a=0.05 para probar si los contenidos de


nicotina pueden ser bien representados por una distribución normal con
H=1 . 8 y ct=0.4.

123
Solución.

1. - Ho. Los contenidos de nicotina pueden ser representados por una


distribución normal con p= ? 8 y a=0.4

2. - Hi: Los contenidos de nicotina no se distribuyen normalmente.

3. Nivel de significancia a=0.05.


4. Región critica. Se rechaza Ho si D>Da. De la tabla A. 10, se rechaza Ho si
D>Dao.o5=OA32

5. Cálculos. Se realizan los cálculos siguientes para determinar el


valor D.

X,
f, ■ A F0(x) S(x) Z) = |F0 (x)-5(x)|
n
0.85 1 0 .1 1 1 1 0 .1 1 1 1 .0088 .1 0 2 2

1.09 1 0 .1 1 1 1 0 .2 2 2 2 .0379 .1841


1.51 1 0 .1 1 1 1 0.3333 .2342 .0988
1.63 1 0 .1 1 1 1 0.4444 .3354 .1086
1.64 1 0 .1 1 1 1 0.5555 .3446 .2104
1.69 1 0 .1 1 1 1 0 .6 6 6 6 .3917 .2743
1.79 1 0 .1 1 1 1 0.7777 .4900 .2877*
2.03 1 0 .1 1 1 1 0 .8 8 8 8 .7174 .1706
2.55 1 0 .1 1 1 1 0.9999 .9696 .0294

❖ Son las probabilidades acumuladas obtenidas de la tabla normal


S ( x) :
estándar al estandarizar los valores x, por medio zi = (x, - ju)/a.

En la tabla anterior se ve que la diferencia mayor es en x - 0.2877 y


que D asume el valor D= 0.7777-0.4900 =. 0.2877.

6. Decisión: Se rechaza Ho si D > D n. Como (D - 0.2877) < (Do.os = 0.432)


entonces no se rechaza Ho y se, concluye que los contenidos de nicotina no
se distribuyen normalmente.

124
M l t i L í l i l .
a Solución con el paquete STATA. “ LlC J.fiV íü ñ JU A R E Z 8 A N C ttE Z ”
UNIDAD ACADEMICA DE ECONOMIA Y
ESTADISTICA
> Creación de la base de datos. ■DNtVKRSiO/VP VEHACRUZANA

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1 .1Teclear "STATA"
1.2 Teclear "clear"
1.3 Teclear "input x"(nombre de la variable)

. input X
X
1 . 1.09
2. 1.79
3.2.03
4. 1.63
5. 1.69
6 . 0.85

7. 1.64
8 . 1.51

9. 2.55
1 0 . end

y Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:

•ksmirnov jc=normprob((x-1.8)/ 0.4)

One-Sample kolmogorov-Smmirnov test against theoretical


distribution normprob((x-1.8j/0.4)

Smaller group D p-value Corrected


' x: 0.2878 0.225
Cumulative: -0.0807 0.889
Combined K-S: 0.2878 0.445 0.319
Tabla 8.7. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

125
8.2.2 Prueba de Kolmogorov - Smirnov para dos muestras
independientes.

La prueba de dos muestras de Kolmogorov — Smirnov puede


confirmar que dos muestras independientes han sido extraídas de la misma
población (o de poblaciones con la misma distribución). La prueba de dos
colas es sensible a cualquier clase de diferencia en las distribuciones de las
que se sacaron las dos muestras: diferencias en colocación (tendencia
central), en dispersión, en oblicuidad, etc. La prueba de una cola se usa
para decidir si los valores de la población en las que se tomó una de las
muestras son estocásticamente mayores o menores que los de la población
de la que se tomó la otra, por ejemplo, para probar la predicción de que los
puntajes de un grupo experimental serán “mejores” que los del grupo
control correspondiente.
Como en la prueba de una muestra de Kolmogorov - Smirnov, esta
prueba de dos muestras dirige el interés hacia los puntos de acuerdo entre
dos distribuciones acumulativas. La prueba de una muestra examinaba los
puntos de coincidencia de la distribución de un conjunto de valores
muéstrales y una distribución teórica especifica. La prueba de dos muestras
examina los puntos de coincidencia de dos conjuntos de valores muéstrales.

Si las dos muestras han sido de verdad extraídas de la misma


distribución de población, puede esperarse que las distribuciones
acumulativas de ambas muestras sean claramente próximas entre sí, ya
que solamente deberían mostrar desviaciones casuales de la distribución de
población. Un alejamiento excesivo de las distribuciones acumulativas de
las dos muestras sugiere que las muestras provienen de poblaciones
diferentes. Así, una desviación bastante grande entre las dos distribuciones
acumulativas muéstrales es una razón para rechazar Ho.

A continuación se resume el procedimiento para probar hipótesis de


dos muestras mediante la prueba de Kolmogorov - Smirnov.

1 . Planteamiento de las hipótesis

Se tienen dos muestras aleatorias independientes de tamaños ni y n2


y se desea saber si provienen de poblaciones con igual distribución, de
acuerdo con los siguientes sistemas de hipótesis.

a) Ho: F i (x ) = F 2 (x ) vs H i : F i (x ) * F 2 (x)

126
b ) Ho: F i ( x ) = F 2 (x ) vs H i : F i (x ) > F 2 ( x )

c) Ho: F i ( x ) = F 2 (x ) vs H i : . F i (x ) < F 2 ( x )

donde F i ( x ) y F 2 (x) representan la función de distribución teórica de las


poblaciones de las cuales provienen las muestras respectivas.

2. Estadístico de prueba '

La prueba se fundamenta en la comparación de las distribuciones


empíricas acumuladas Si(x) y S2 (x) respectivamente para muestras 1 y 2 .

número de datos de la muestra 1 que son < x


S,(x) =
n,
número de datos de la muestra 2 que son < x
S2( x ) =

De acuerdo con esto, la estadística para los distintos tipos de hipótesis


son respectivamente:
a) D - Máximo x|S ] (x) - S 2 (x)|

b) D = Máximo x { S , ( x ) - S2( x ) }

c) D = Máximo (x) - y, (x)}

3. Decisión: Se espera que si las muestras provienen de poblaciones con


igual distribución, entonces las diferencias entre Si(x) y S2 (x) sean
pequeñas 'para todos los valore de x. Por tanto, la región de rechazo esta
dada por:

donde D n¡>h a son los valores tabulados de la distribución de D (Tabla A.8 ).

Cuando los valores de n i y m son grandes (más de 40) y no parecen


los valores Dn^ a en la tabla de distribución exacta, puede usarse la
siguiente expresión (Siegel, 1956)

.D .n a = k a p l F l .
. V ».»2

127
donde K« toma los siguientes valores:

a 0 .1 0 0.05 0.025 0 .0 1 0.005 . 0 .0 0 1

ka 1 .2 2 1.36 1.48 1.63 1.73 1.95

Ejemplo No. 22 Prueba de Kolmogorov - Smirnov para dos


muestras independientes.

Un fabricante de cigarrillos afirma que el contenido de alquitrán de


los cigarrillos marca B es menor que el de la marca A. Para obtener esta
aseveración, se registran los siguientes contenidos de alquitrán en
miligramos.

Marca A 12 9 12 11 14
Marca B y 8 10 7 - -

Utilice la prueba de Kolmogorov-Smirnov con a = 0.05 para verificar si


este afirmación es válida.

Solución:

y F b (x ) son las funciones de distribución acumulativa teóricas de


F a( x)
la contenido de alquitrán de la marca A y la marca B respectivamente, las
hipótesis pueden plantearse como sigue:

1 . Ho: F b(x ) = F a (x )
2. Hi: F b (x ) < F a (x )
3. Nivel de Significancia a = 0.05
4. Región crítica. Se rechaza Ho si D>Dn^ a. De la tabla A.8 , se rechaza la
hipótesis nula si D > D35005 = 4/5.

5. Cálculos: Realizamos los cálculos siguientes para determinar el valor de


D.

128
A B
X, S A(x ¡) S b (x í) S b (x O- S a (x í)
z , y¡
7 7 0 1/3 1/3
8 8 0 2/3 2/3
9 9 1/5 2/3 7/15
10 10 1/5 1 4/5
11 11 2/5 1 3/5
12 12 3/5 1 2/5
12 12 4/5 1 1/5
14 14 1 1 0

❖ : S a (x í ) Distribución muestral acumulativa para la marca A.


❖ : S b ( x í) Distribución muestral acumulativa para la marca B.
* Diferencia máxima en xi,yi 10.

En la tabla anterior se ve que la diferencia es mayor en xí = y¡ = 10 y


que D asume el valor:
D = Máximo de x { S b (x í ) - S a (x í ) } = 1 - 1 =0

6 . Decisión: Se rechaza H 0 si D > D n^ a . Como (D = 0)< (^3.5,0.05 - 4 / 5 )


entonces no se rechaza Ho y se concluye que el contenido de alquitrán en la
marca A es igual que el de la marca B.

□ Solución con el paquete STATA.

y- Creación de la base de datos.

La introducción de los datos en el paquete STATA se realiza como se indica


a continuación:

1 .1 Teclear "STATA"
1 . 2 Teclear "elear"

1.3 Teclear "input x y" (nombre de las variables)


1.4 Introducir los datos como a continuación se muestra

129
input marca alquit

marca alquit
1 . 1 12

2 . 1 9
3 1 12

4. 1 11

5. 1 14
6 . 2 8

i: 2 10

8 . 2 7
9. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATA, se obtiene mediante la instrucción:
• ksm irnov alquit, by (marca)
Obteniéndose como resultado la tabla 8 .8 .

Two -Sample kolmogorov-Smmirnov test for equality of


distribution functions
Smaller group D p-value Corrected
1 0 .0 0 0 0 1 .0 0 0
2 -0.8000 0.091
Combined K-S: 0.8000 0.181 0.129
Tabla 8.8. Resultados de la prueba de hipótesis que proporciona el
paquete STATA.

□ Solución con el paquete STATISTICA.

j y Creación de la base de datos


I - ,
La introducción de los datos en el paquete se realiza como se indica a
continuación.

130
1 .- Entramos al modulo Nonparametrics/distrib.

¡ S T A T I S T I C A M o d u le Sw itche r

Nonpaiametric tests
sa
Basic Statistics
[between and within
Nonparainetiics/D istiib. group (

m A N O V A /M A N O V A
expected X*. j'
Multiple Regression Ordinai descriptive
Nonlinear Estimation
median, mode,
Time Series/Forecasting Fitting various

Cluster Analysis
distributions to data,
Data Management/MFM

& Factor Analysis

Sw itch T o Customize list... |


Pi
End l Sw itch T o Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

STATISTICA: Nonparar
l | ^ F'le Edit View Analysj|

1
a
N
Uf
1

II
V
AI 2
ALQUITRÂ
1 i" 000 12, 000
2 1, 000 9, 000
3 1, 000 12, 000
4 1, 000 11, 000
5 1, 000 14, 000
6 2, 000 8, 000
7 2, 000 10, 000
$ 2, 000 7, 000

131
3.- Seleccionamos la opción Kolmogorov -Smirnov two-sample test

r
N o rip -a ia in e tiic S ta tis tic s
UmKh

<? Nonna* ametrrc «ta t» Distribution lilting S.K.


Cancel
H a n p m m e tric Statistics:
|=j[=j 2 x 2 Tables X I /Vz/Ph?. McNemar. Fisher exact ; Select the desired
nonpaiametnc
M Observed versus expected X2 technique
Correlations (Spearm an. Kendall tau. gamma)
¡ t í ü W ald-W olfow itz runs test
H jt'fl H a n n -W hitney U test
K o l m o g o f o v - 5 m ir n o v I w o - s o m p l c t e s t
U Kruskal-Wallis A N O V A , median test
H I Sign test
[|v*Tj W ilcoKon matched pairs test
[ F ^ Friedman A N O V A & Kendall's concordance
IfN * O p e n Data ( :

J iijii Ordinal descriptive statistics (median, mode. ...) :


siuci _
cusís £ Mi

4.- Seleccionamos nuestras variables

^ K o lm o g o r o v -S m ir n o v tost

V a r ia b le s m , .imi
G rou p in g v a ria b le: M ARCA C ancel .|
D e p e n d e n t v a r ia b le * : ALQ U 1TR A
Code for Group 1. Double-click on the respective field
. to select codes Irom Une list o! valid
Code.for Group Z - vallatale values

R a x t. w h is k e r

• e t e n o i i v e d h rslo«|tam

La prueba de hipótesis correspondiente, mediante el empleo del


paquete STATISTICA, proporciona los resultados que se presentan en la
Tabla 8.9.

Ü¡ Kolm ogorov-Sm irnov Test (nonp43.staJ -nix


NONPAR By variable MARCA
STÀTS Group 1: 1 Group 2: 2
r ......... i""»'. 1 Hax Pos Hcsn Mean
variable { . |ì j D iff a m e p-level Group 1 Group 2
0.00 .800000 p > . 10 i 11.60000 i 8,333333
►r
Tabla 8.9 Resultados de la prueba de hipótesis que proporciona el paquete
STATISTICA.

132
9. MÉTODO DE CORRELACIÓN DE RANGOS.

AI estudiar la correlación entre dos variables X y Y, en la estadística


paramétrica, se daba por supuesto que las variables tenían distribución
normal conjunta y que la varianza condicional de una variable, dada la
otra, era la misma. En situaciones en que es dudosa la certeza de estos
supuestos, se pueden utilizar técnicas llamadas en general métodos de
correlación de rangos.

En esta sección se van a considerar dos métodos de correlación de


rangos. El primero se basa en el coeficiente de correlación de rangos,
denotado por rs, y que fue propuesto por Cari Spearman en 1904; el
segundo, un contraste de más reciente descubrimiento, se aplica calculando
el coeficiente de r (“tau” letra griega), descrito por primera vez por Maurice
G. Kendall en 1938. Ambos métodos son no paramétricos y se aplican
ordenando por rangos los valores de cada variable.

Como la relación entre las variables se analiza de acuerdo con los


rangos de cada variable, los métodos se pueden aplicar a situaciones en que
no se dispone de medidas numéricas exactas. Por ejemplo, puede ser muy
difícil medir exactamente el estado de ánimo de cada empleado de un
grupo, pero sería cosa mucho más sencilla para el jefe clasificarlos por
orden.

9.1 Coeficiente de correlación de Spearman.

Se considerará ante todo el coeficiente de correlación de rangos, rs,


que se utiliza más ampliamente. El método requiere de la suma y de las
diferencias al cuadrado entre cada par de rangos, una vez que una de las
dos variables que se van a correlacionar se ha ordenado por rangos.
Entonces, si no hay coincidencia de rangos, se puede aplicar la fórmula
para el coeficiente de correlación de rangos de Spearman y encontrar así:

6 ¿d f
r = 1 ------1:1-----
¡ ' n(n’ - l )
¡
siendo d¡ la diferencia entre rangos del i-ésimo par y n el número de pares
que son considerados en el análisis.

133
En la práctica, la fórmula anterior también se utiliza cuando existen
empates entre las observaciones x o y. Los rangos para observaciones
empatadas se asignan como en la prueba de rangos con signo, promediando
los rangos que se les habría asignado si las observaciones fueran diferentes.

El valor de rs usualmente estará cercano al valor obtenido al


encontrar r con base en las mediciones numéricas y se interpreta en buena
medida de la misma manera. Igual que antes, el valor de rs estará en el
rango de - 1 a +1. Un valor de +1 ó -1 indica asociación perfecta entre X y Y,
el signo más aparece para rangos idénticos y el signo menos para rangos
inversos. Cuando rs está cercano a cero, se concluye que las variables no
están correlacionadas.

Ejemplo No. 23 Coeficiente de Correlación de Spearman

Una compañía publicitaria desea determinar si el número de


anuncios comerciales de televisión (x) esta relacionado con el número de
ventas (y) de cierto producto. Se obtuvieron los datos siguientes:

X 10 12 15 5 7 5 5 15 8 1 13 15
Y 30 60 50 12 10 25 10 60 25 10 75 95

a) Calcule rs, el coeficiente de correlación de Spearman basado en rangos.

b) ¿Existe razón suficiente para concluir al nivel de significancia 0.05, que


existe una correlación positiva?.

Solución:

Sean X y Y el número de anuncios comerciales de televisión y el


número de ventas, respectivamente. Primero se asignan rangos a cada
conjunto de mediciones, con el rango 1 asignado al número más pequeño en
cada conjunto, el rango 2 al segundo número más pequeño en cada conjunto
y así consecutivamente, hasta que el rango 1 1 se le asigna al número más
grande. La tabla siguiente, presenta los rangos individuales de las
mediciones y las diferencias en rangos para los doce pares de observaciones.

134
Rangos del número de anuncios comerciales de televisión y el número
de ventas.

Rango Ventas Rango di di2


Comerciales
10 0 7 30) 7 0 0

12 8 60 9.5 1.5 2.25


15 11 50 \ 8 -3 9
5 1. 3 12 3 4 . 1 1

7S 5 10 < 2 -3 9
53 3 25: 5.5 2.5 6.25
5 E¡ 3 1 0 : 2 -1 1

15 - 11 60 3 9.5 -1.5 2.25


8 b 6 25 ; 5.5 -0.5 0.25
1 ' 1 10 2 1 1

13 9 9 75^ 11 2 4
15 0 11 95 V 12 1 1

0 37

Al sustituir en la fórmula para rs se tiene:

6(37) _ t 222
12(l22 - l ) ~ 12(143)

=1-0.1293706=0.870

e indica una correlación positiva alta entre el número de anuncios


comerciales de televisión y el número de ventas.

□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:

135
1 .1 Teclear "STATA"
1 . 2 Teclear "Clear"

1.3 Teclear "input x y" (nombre de las variables)


1.4 Introducir los datos como a continuación se muestra.

input x y

X y
1 . 10 30
2 . 12 60
3. 15 50
4. 5 12

5. 7 10

6. 5 25
7. 5 10

8. 15 60
9. 8 25
10 . 1 10

11. 13 75
12. 15 95
13. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete. .

El coeficiente de correlación de Spearman se obtiene en el paquete


STATA, mediante la instrucción.

. spearman x y

Obteniéndose como resultado la Tabla 9. 1

Number of obs = 12
Spearman's rho = 0.8674
Test of Ho: x and y independent
Pr > ]t| = 0.0003
Tabla 9.1 Resultados que proporciona el paquete
STATA para rs

136
BIBLIOTECA
ESTADISTICA
UNIVERSIDAD VERACRUZANA
□ Solución con el paquete STATISTICA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:

1 .- Entramos al modulo N onparametrics/Distrib

STATI STI CA Module Switcher

l ü J Basic Statistics Nonparametnc tests


(between and within
Nonparametiics/Distrib. group difference tests,
correlations, observed-
K A N 0 VA/M A N O V A
ôxpectedX*. . );
L_ Multiple Regression Ordinal descriptive
statistics (percentiles,
1¿L Nonlinear Estimation median, mode, 1,
Time Series/Forecasting Fitting various
continuous and discrete
Cluster Analysis
attributions to data.
Data Management/MFM
Factor Analysis

iâUffl Sw itch T o I Customize lis t.. |

■æ E n d & Sw itch T o Cancel

2 .- Capturamos nuestra base de datos de la forma siguiente:

^ S T A T I S T I C I A: N o n p a ra r
1 ÍT? E d it >¿iew £nalysi||
[io li
0 it^ i & I
wur 1
VAL
2
Y
10,0 0 0 3 0, 0 0 0
2 12,0 0 0 6 0, 0 0 0
3 15,0 0 0 5 0. 0 0 0
4 5,0 0 0 1 2. 0 0 0
5 7,000. 1 0. 0 0 0
6 5,000 2 5. 0 0 0
? 5,0 0 0 10.000
8- 15,0 0 0 60,000
9 ' 8,0 0 0 2 5 , 0 0 0
• i'ü 1,0 0 0 1 0 . 0 0 0
11 13,0 0 0 7 5 , 0 0 0
12 15,000 9 5 , 0 0 0

137
3.- Seleccionamos la opción Correlations (Spearman, Kendall tau,
gamma)

N o n p a r a m e tii c Statistics

C Distribution fitting
OK

. •a
Nonparametiic »tat«
....... ............. .. ::

Captisi
Nonparametric Statistics:
§j|j 2 x 2 T ables X ^/ W P h ? . McNemai. Fisher exact Setec' the desred
H Ob solved veitus expected X»__________________
Coirelations ( S p e a u n a n . K enda ll ta n, gamma)

S U Wald-Wotfowitz runs test


I Mann-Whitney U test
H I Kolmogoiov-Smiinov two-sample test
jjïjj Ktuskal-Wallis A N O V A . median test
|j|j Sign test
IU I Wilcoxon matched pairs test
IM i Friedman A N O V A fc Kendall's concordance
irnin Cochran Q test 0 ? O pen g a t
0X010

Ordinal descriptive statistics (median, m od e ....) casis l | m

4.- Seleccionamos nuestras variables.

Nonparametiic Correlations BB
Variables

Variable list: X-Y Cancel I

Correlation Spearman R d
Square matrix

Matrix plot j

En este caso en el panel anterior debemos especificar que prueba es la


que vamos a realizar por lo que en la opción Correlation vamos a indicar
que queremos la prueba de Spearman R y en la opción Compute
indicaremos como queremos que nos muestre el resultado en este caso
indicamos Square matrix y en la obtención del coeficiente de correlación
de Spearman, el paquete STATISTICA, proporciona los resultados que se
presentan en la Tabla 9.2.

138
A
-A
"g§ S p e a i m a n R a n k D i r le t C o i r e l a t i o n s ( n n n p 4 4 s ta )
%r, my.- ■
-* ^' ¿/
•■ vi
StìMteue,*, MD Pa ir w is e de le t ed
.... . .... C /.
A^VoV Y>
v
, 867389
1. 00 0 0 0 0
%V irvA -
'O a
\ V
’ abla 9.2 Resultados que proporciona el paquete STATISTICA

En realidad se obtiene algunas ventajas de usar rs en lugar de r. Por


ejemplo, no se asume ya más que la relación fundamental entre X y Y sea
lineal y, por lo tanto, cuando los datos poseen una relación curvilínea
distinta, el coeficiente de correlación de rangos probablemente será
confiable que la medición convencional. Una segunda ventaja de utilizar el
coeficiente de correlación de rangos es el hecho de que no se hacen
suposiciones de normalidad con respecto a las distribuciones de X y Y. Tal
vez la ventaja más grande se da cuando no se está en condiciones de
realizar mediciones numéricas significantes; no obstante, se puede
establecer rangos. Tal es el caso, por ejemplo, cuando diferentes jueces le
dan rango a un grupo de individuos de acuerdo a algún atributo. El
coeficiente de correlación de rangos se puede utilizar en esta situación como
una medida de la consistencia de los dos jueces.

Para probar la hipótesis de que p = 0 (La constante p “rho” recibe el


nombre de coeficiente de correlación poblacional) al utilizar un coeficiente
de correlación de rangos, se debe considerar la distribución muestral de los
valores de rs bajo la suposición de que no hay correlación. Se han calculado
los valores críticos para a = 0.05, 0.025 y 0.01 y se dan en la tabla A.21. La
elaboración de esta tabla es similar a la tabla de valores críticos para la
distribución t excepto por la columna de la izquierda, la cual ahora da el
número de pares de observaciones en lugar del grado de libertad. Ya que la
distribución de los valores de rs es simétrica alrededor de cero cuando p = 0,
el valor de rs que deja un área de a a la izquierda es igual al negativo del
valor de rs que deja un área de a a la derecha. Para una hipótesis
alternativa bilateral, la región crítica de tamaño a cae igualmente en las
colas de la distribución. Para una prueba en la cual la hipótesis alternativa
es negativa, la región crítica está por completo en la cola izquierda de la
distribución , y cuando la alternativa es positiva, la región crítica se coloca
por ejemplo en la cola derecha.
9.2 Coeficiente de correlación de kendall.

Con el mismo tipo de datos para los cuales es útil el coeficiente de


correlación de rangos de Spearman, se puede calcular otro estadístico
(designado por v) que se llama coeficiente de correlación de rangos de
Kendall. Como
r
rs, r es una medida del grado de correlación entre dos
conjuntos de rangos.

El coeficiente de correlación de rangos de Kendall esta dado por la


expresión

S
n(n -l)|

donde n es el número de observaciones y S es la suma algebraica de todos


los valores obtenidos a partir de la ubicación de los rangos.

Para ilustrar el procedimiento de como calcular el coeficiente de


correlación de Kendall consideremos el ejemplo siguiente:

Ejemplo No. 24 Coeficiente de correlación de kendall.

Supóngase que se va a determinar si el rendimiento en matemáticas


de un grupo de bachilleres tiene correlación con su rendimiento de inglés.
Se aplica a un grupo de 1 2 alumnos dos exámenes estándar, uno de
matemáticas y otro de inglés, obteniéndose los siguientes resultados.

140
Alumno Calificación
Matemáticas Inglés
•1 82 79
2 75 80
3 95 90
4 99 89
' 5 85 91
6 70 65
7 "7 7 67
8 60 62
9 63 61
10 66 68

11 80 81
12 89 84

a) Calcule el valor t de Kendall.

Solución:

1. - Ho: No existe correlación en las calificaciones.


2. - Hi: Existe correlación en las calificaciones.
3. - Nivel de significancia a=0.05
4. -Región Crítica: Z < -1.96 ó Z > 1.96
5. - Cálculos:

Dispónganse los rangos atribuido por las calificaciones de


matemáticas en su orden natural, lo que da

Alumnos 8 9 10 6 27 . 11 1 5 12 3 4
Matemáticas 60 63 66 70 75 77 80 82 85 89 95 99
Inglés 62 61 68 65 80 67 81 79 91 84 90 89

Para el cálculo de S realizamos las operaciones siguientes:

62 : 10 - 1 = + 9. Número de rangos mayores que 62 menos el número de


rangos menores que 62.

61: 10 - 0 = + 19. Número de rangos mayores que 61 menos el número de

141
rangos menores que 61.

: 7 - 2 = + 5. Número de rangos mayores que


6 8 68 menos el número de
rangos menores que 6 8 .

65 : 8 - 0 = + 8 . Número de rangos mayores que 65menos el número de


rangos menores que 65.

80 : 5 - 2 = + 3. Número de rangos mayores que 80 menos el número de


rangos menores que 80.

67 : 6 - 0 = + 6 . Número de rangos mayores que 67 menos el número de


rangos menores que 67.

8 1 : 4 - 1 = +3. Número de rangos mayores que 81 menos el número de


rangos menores que 81.

79 :‘ 4 - 0 = + 4. Número de rangos mayores que 79 menos el número de


rangos menores que 79.

9 1 : 0 - 3 = - 3. Número de rangos mayores que 91 menos el número de


rangos menores que 91.

84 : 2 - 0 = + 2 . Número de rangos mayores que 84 menos el número de


rangos menores que 84.

90 : 0 - 1 = - 1 . Número de rangos mayores que 90 menos el número de


rangos menores que 90.

En consecuencia, el valor de S se obtiene como la suma de los valores


obtenidos. Esto es.

S —+ 9 +10 + 5 + 8 + 3 + 6 + 3 + 4 —3 + 2 —1 —46

Por lo tanto, r resulta ser igual a

S 46
n (n-l)i ( )
1 2 11 66

El valor de r va de - 1 a + 1.

142
□ Solución con el paquete STATA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:

1 .1 Teclear "STATA"
1 .2 Teclear "Clear"
1.3 Teclear "input x y" (nombre de las variables)
1.4 Introducir los datos como a continuación se muestra.

input x y

X y
1. 60 62
2 . 63 61
3. 66 68

4. 70 65
5. 75 80
6 . 77 67
7. 80 81
8. 82 79
9. 85 91
10. 89 84
11. 95 90
12. 99 89
13. end

> Instrucción para realizar la prueba y resultados que proporciona el


paquete.

El coeficiente de correlación de Spearman se obtiene en el paquete


STATA, mediante la instrucción.

143
. ktau X y

Obteniéndose como resultado la Tabla 9.1

Number of obs = 12

Kendall's tau-b = 0.6970


Kendall's tau-a - 0.6970
SE of score = 14.583
Kendall's score = 46
Tabla 9.3 Resultados que proporciona el paquete
STATAparars

□ Solución con el paquete STATISTICA

> Creación de la base de datos

La introducción de los datos en el paquete STATA se realiza como se


indica a continuación:

1 .- Entramos al modulo Nonparametrics/Distrib

STATISTI CA Module Switcher

ü l Basic Statistics Nonparametric tests


fbetween and within
Nonparametrics/Distrib. croup deference tests
g^AN O VA/M AN O VA
expected!*?, ).
\/ Multiple Regression
£ V Nonlinear Estimation
median, mode, )
9 Tim e Series/Forecasting Fitting various
Cluster Analysis
contnuous and discrete
distnoutions to data.
||.i| Data Management/MFM
Factor Analysis

Ssi&l Switch T o I Customize list...

E n d & Sw itch T o

144
2.- C ap tu ram os n u estra base de datos de la form a siguiente:

H S T A T I S T I C A : N onpaiai

? File Eát V im AnaVí

79.
fá.lFSll
p a i PI
Nur
VAI
1
H ATEH ATI [■ k i£
8 2 . 000 7 9 , OOC
2 75, 000 8 0 . OOC
2 95, 000 90 OOC
4 99 OOO 89 00C
S 85 000 91 OOC
6 70 000 65 OOC
7 77 000 6 7 . OOC
8 80 000 62 00C
9 63 000 61 OOC
10 66 000 68 OOC
11 80 000 81 OOC
12 89 000 84 OOC

3.- Seleccionamos la opción Correlations (Spearman, Kendall tau


gamma)

N o n p a r a m e tii c Statistics

**■|Nongaiametric *tat* Distribution fitting


OjK
Cancel
Nonpaiametric Statistics.
Üjj|j 2 x 2 Tables X2/Vl y’Ph?, McNemar. Fisher exact Select the desved
nonpaiametric
Observed versus expected X1 techrtque
Co irelation s (S p e a im a n . K enda ll tau. gamma)

Wald-Wolfowitz runs test


Mann-Whitney U test
Üitifj Kolmogorov-Smiinov two-sample test
j| jji Kruskal-Wallis AN OVA. median test
[23] Sign test
[231 Wilcoxon matched pairs test
ü Friedman A N O V A & Kendall's concordance
» ¡ ¡ j Cochran Q test Open Data
Sili«7 , I a _ (
Ordinal descriptive statistics (median, m ode....) eras i I St I

145
4.- S eleccion am os n u estras variables.

Nonpaiametnc Couelations ü

Variable lis ti MAT K H A N


Variable list 2: INGLES .............

Correlation: Kendall T a u 31
zz=zzizzi==========:
Compute: Detailed report »1 1 ^ Ilill
liiilis:
riff'f'“''''----!--------- -, - -S-

En este caso en el panel anterior debemos especificar que prueba es la


que vamos a realizar por lo que en la opción Correlation vamos a indicar
qué queremos la prueba de Rendali Tau y en la opción Compute
indicaremos como queremos que nos muestre el resultado en este caso
indicamos Detailed report y en la obtención del coeficiente de correlación
de Rendali, el paquete STATISTICA, proporciona los resultados que se
presentan en la Tabla 9.4

If§K e n d a ll T a u Corre la tions [n o n p 2 4 .s ta ]


NONPAR MD pairwise deleted

STATS
K o n d a 11

i:11
Pair of Variables Tau Z p-ievel
696970 3 154337 .001609
r ....... • 1555,1 _ □
Tabla 9,4 Resultados que proporciona el paquete STATISTICA

146
ANEXOS
T ab la A.1 Probabilidades de la distribución Binomial.
\

/I r ■ 10 .20 .25 30 40 1 50 .60 .70 80 90


1 0 .9000 8000 .7500 7000 .6000 .5000 • .4000 3000 .2000 1000
1 1.0000 1.0000 1.0000 1.0000 1.0000 10000 1.0000 1.0000 1.0000 1.0000
2 0 .8100 .6400 .5625 .4900 .3600 .2500 .1600 .0900 .0400 .0100
I .9900 .9600 .9375 .9100 .8400 .7500 .6400 .5100 .3600 1900
2 1.0000 1.0000 1.0000 1.0000 1.0000 10000 1.0000 1.0000 1.0000 1.0000
3 0 .7290 .5120 .4219 .3430 .2160 .1250 .0640 .0270 .0080 .0010
1 .9720 .8960 .8438 .7840 .6480 .5000 .3520 .2160 .1040 .0280
2 .9990 .9920 .9844 .9730 .9360 .8750 .7840 .6570 .4880 .2710
3 1.0000 1.0000 1.0000 ‘ 1.0000 ' 1.0000 1.0000 1.0000 " 1.0000 1.0000 1,0000
4 0 .6361 .4096 .3164 .2401 1296 .0625 .0256 .0081 .0016 .0001
1 .9477 .8192 .7383 .6517 .4752 .3125 .1792 .0837 .0272 .0037
2 .9963 .9728 .9492 .9163 .8208 .6875 .5248 .3483 .1808 .0523
3 .9999 .9984 .9961 .9919 .9744 .9375 .8704 j £599 .5904 .3439
4 1.0000 1.0000 1.0000 1.0000 1.0000 I.OOÓO 1.0000 fo o o o 1.0000 1.0000
5 0 .5905 ' .3277 ■ -..2373 .1681 , .0778 __.0312 <0102 .0024 .0003 . 0000,
1 .9185 .7373 .6328 .5282 .3370 .1875 ,0870 .0308 .0067 .0005
2 -9914 .9421 .8965 .8369 .6826 .5000 .3174 .1631 .0579 .0086
3 .9995 .9933 .9844 .9692 .9130 .8125 .6630 .4718 .2627 .0815
4 1.0000 .9997 .9990 .9976 .9898 .9688 .9222 .8319 .6723 .4095
5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
6 0 .5314 .2621 .1780 .1176 .0467 .0156 .0041 .0007 .0001 .0000
1 .8857 .6554 .5339 .4202 .2333 .1094 .0410 .0109 .0016 .0001
2 .9841 .9011 .8306 .7443 .5443 .3438 .1792 .0705 .0170 .0013
3 .9987 .9830 .9624 .9295 .8208 .6563 .4557 .2557 .0989 .0158
4 .9999 .9984 .9954 .9891 .9590 .8906 .7667 .5798 .3447 .1143
5 1.0000 9999 .9998 .9993 .9959 .9844 .9533 .8824 .7379 .4686
6 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
7 0 .4783 .2097 .1335 .0824 .0280 .0078 0016 .0002 .0000
1 .8503 .5767 .4449 .3294 .1586 .0625 / .0188 .0038 .0004 .0000
2 .9743 .8520 .7564 .6471 .4199 .2266 .0963 .0288 .0047 .0002
3 .9973 .9667 .9294 .8740 .7102 .5000 .2898 .1260 .0333 .0027
4 .9998 .9953 .9871 .9712 .9037 .7734 . 5801, .3529 .1480 .0257
5 1.0000 9996 .9987 .9962 .9812 .9375 .8414 .6706 .4233 .1497
6 1.0000 .9999 .9998 .9984 .9922 .9720 .9176 .7903 .5217
7 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

147
T ab la A.1 Probabilidades de la distribución Binomial, (continuación)

P
n r 10 .20 .25 .30 40 .50 60 .70 .80 .90

8 0 .4305 .1678 .1001 .0576 .0168 .0039 0007 0001 .0000


1 .8131 .5033 3671 .2553 .1064 .0352 .0085 .0013 .0001
2 9619 7969 .6785 5518 .3154 .1445 .0498 0113 .0012 .0000
3 .9950 .9437 .8862 8059 .5941 3633 .1737 0580 .0104 .0004
4 .9996 .9896 .9727 .9420 .8263 .6367 .4059 1941 .0563 0050
5 1.0000 .9988 .9958 .9887 .9502 .8555 .6846 4482 .2031 .0381
6 .9991 .9996 .9987 9915 .9648 .8936 .7447 .4967 .1869
7 1.0000 1 0000 9999 .9993 .9961 9832 9424 .8322 .5695
8 1.0000 1.0000 1.0000 1 0000 1.0000 1.0000 1.0000
9 0 .3874 .1342 .0751 ,0404 .0101 .0020 .0003 .0000
l .7748 .4362 .3003 .1960 .0705 .0195 .0038 .0004 .0000
2 .9470 .7382 .6007 .4628 .2318 .0898 .0250 .0043 .0003 .0000
3 .9917 .9144 .8343 .7297 .4826 .2539 .0994 .0253 .0031 .0001
4 .9991 .9804 .9511 .9012 .7334 .5000 2666 .0988 .0196 .0009
5 .9999 .9969 .9900 .9747 9006 .7461 .5174 .2703 .0856 .0083
6 1.0000 .9997 .9987 .9957 .9750 9102 .7682 .5372 .2618 0530
7 1.0000 .9999 9996 .9962 .9805 .9295 .8040 .5638 .2252
8 1.0000 1.0000 .9997 .9980 .9899 .9596 .8658 .6126
9 1.0000 1.0000 1.0000 1.0000 1.0000 10000
10 0 .3487 .1074 .0563 .0282 .0060 .0010 .0001 .0000
1 .7361 .3758 .2440 .1493 - .0464 .0107 .0017 .0001 .0000
2 .9298 .6778 .5256 .3828 .1673 .0547 .0123 .0016 .0001
3 .9872 .8791 .7759 6496 .3823 .1719 .0548 .0106 .0009 .0000
4 .9984 .9672 .9219 .8497 6331 .3770 .1662 .0474 .0064 .0002
5 .9999 .9936 .9803 .9527 .8338 .6230 .3669 .1503 .0328 .0016
6 1.0000 .9991 .9965 .9894 .9452 . 8281. .6177 .3504 .1209 .0128
7 9999 .9996 .9984 .9877 .9453 . .8327 .6172 .3222 .0702
8 1.0000 1.0000 9999 .9983 .9893 .9536 .8507 .6242 .2639
9 1.0000 .9999 9990 .9940 .9718 .8926 .6513
10 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
11 0 .3138 .0859 .0422 .0198 .0036 .0005 .0000
1 .6974 .3221 .1971 .1130 .0302 .0059 .0007 .0000
2 .9104 .6174 .4552 .3127 .1189 .0327 .0059 .0006 .0000
3 .9815 .8369 .7133 .5696 .2963 .1133 .0293 .0043 .0002
4 .9972 .9496 .8854 .7897 .5328 .2744 .0994 .0216 .0020 .0000
5 .9997 .9883 .9657 .9218 .7535 .5000 .2465 .0782 . 0.117 .0003
6 1.0000 .9980 .9924 .9784 .9006 .7256 .4672 .2103 .0504 .0028
7 .9998 .9988 .9957 .9707 .8867 .7037 .4304 .1611 .0185
8 1.0000 .9999 .9994 .9941 .9673 .8811 .6873 .3826 .0896
9 1.0000 1.0000 .9993 .9941 .9698 .8870 .6779 .3026
10 1.0000 .9995 .9964 .9802 .9141 .6862
11 1.0000 1.0000 1.0000 1.0000 1.0000

148
T ab la A.1 Probabilidades de la distribución Binomial, (continuación)

n r .1 0 20 25 .30 .40 .50 .60 .70 .80 .90

12 0 .2824 .0687 * 0317 .0138 .0 0 2 2 .0 0 0 2 .0 0 0 0

1 .6590 .2749 .1584 .0850 .0196 .0032 .0003 .0 0 0 0

2 .8891 .5583 .3907 .2528 .0834 .0193 .0028 .0 0 0 2 .0 0 0 0

3 .9744 .7946 .6488 .4925 .2253 .0730 .0153 .0017 .0 0 0 1

4 .9957 .9274 .8424 .7237 .4382 .1938 .0573 .0095 .0 0 0 6 ’ .0 0 0 0

5 .9995 .9806 .9456 .8821 .6652 .3872 .1582 .0386 .0039 .0 0 0 1

6 .9999 .9961 .9857 .9614 .8418 .6128 .3348 .1178 .0194 .0005
7 1 0000 .9994 .9972 .9905 .9427 .8062 .5618 .2763 .0726 .0043
8 .9999 .9996 .9983 .9847 .9270 .7747 .5075 .2054 .0256
9 1 .0 0 0 0 1 .0 0 0 0 .9998 .9972 .9807 .9166 .7472 .4417 .1109
10 1 .0 0 0 0 .9997 .9968 .9804 .9150 .7251 .3410
11 1 .0 0 0 0 .9998 .9978 .9862 .9313 .7176
12 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0

13 0 .2542 .0550 .0238 .0097 .0013 .0 0 0 1 .0 0 0 0

1 ' - .6213 .2336 .1267 .0637 .0126 .0017 .0 0 0 1 .0 0 0 0

2 .8661' -.5 0 1 7 .3326 .2025 .0579 .0 1 1 2 .0013 .0 0 0 1

3 .9658 .7473 .5843 .4206 .1686 70461 .0078 .0007 .0 0 0 0

4 .9935 .9009 .7940 .6543 .3530 .1334 .0321 .0040 .0 0 0 2

5 .9991 .9700 .9198 .8346 .5744 .2905 .0977 .0182 .0 0 1 2 .0 0 0 0

6 .9999 .9930 .9757 .9376 .7712 .5000 .2288 .0624 .0070 .0 0 0 1

7 1 .0 0 0 0 .9980 .9944 9818 .9023 .7095 .4256 .1654 .0300 .0009


8 .9998 .9990 .9960 .9679 .8 6 6 6 .6470 .3457 .0991 .0065
9 1 .0 0 0 0 .9999 .9993 .9922 .9539 .8314 .5794 .2527 .0342
10 1 .0 0 0 0 9999 .9987 .9888 .9421 .7975 .4983 .1339
11 1 .0 0 0 0 .9999 .9983 .9874 .9363 .7664 .3787
12 1 .0 0 0 0 9999 .9987 .9903 .9450 .7458
13 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0

14 0 .2288 .0440 .0178 .0068 .0008 '• ..0 0 0 1 .0 0 0 0

1 .5846 .1979 .1 0 1 0 .0475 .0081 .0009 .0 0 0 1

2 .8416 .4481 .2811 .1608 .0398 .0065 .0006 .0 0 0 0

3 .9559 .6982 .5213 .3552 .1243 .0287 .0039 .0 0 0 2

4 9908 .8702 .7415 .5842 .2793 .0898 .0175 .0017 .0 0 0 0

5 .9985 .9561 .8883 ,7805 .4859 .2 1 2 0 .0583 .0083 .0004


6 .9998 .9884 .9617 .9067 .6925 .3953 .1501 .0315 .0024 .0 0 0 0

7 1 .0 0 0 0 .9976 .9897 .9685 .8499 .6047 .3075 .0933 .0116 .0 0 0 2

8 9996 .9978 .9917 .9417 .7880 .5141 .2195 .0439 .0015


9 1 .0 0 0 0 .9997 .9983 .9825 9102 .7207 .4158 .1298 .0092
10 1 .0 0 0 0 .9998 .9961 .9713 .8757 .6448 .3018 .0441
11 1 .0 0 0 0 .9994 .9935 .9602 .8392 .5519 .1584
12 .9999 .9991 .9919 .9525 .8021 .4154
13 1 .0 0 0 0 .9999 .9992 .9932 .9560 .7712
14 ■ 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0

149
Tabla A.1 Probabilidades de la distribución Binomial, (continuación)

P
n r .10 .20 .25 .30 .40 .50 60 ,70 .80 90

15 0 .2059 .0352 .0134 .0047 .0005 0000


1 .5490 .1671 .0802 .0353 .0052 .0005 .0000
2 .8159 .3980 .2361 .1268 .0271 .0037 .0003 .0000
3 .9444 .6482 .4613 .2969 .0905 .0176 .0019 0001
4 .9873 .8358 .6865 .5155 .2173 .0592 0094 .0007 .0000
5 .9978 .9389 .8516 .7216 .4032 .1509 .0338 .0037 .0001
6 .9997 .9819 .9434 .8689 :6098 3036 .0951 .0152 ,c x :í
7 1.0000 .9958 .9827 .9500 .7869 .5000 .2131 .0500 0042 .0000
8 .9992 .9958 :9848 .9050 .6964 .3902 .1311 .0181 .0003
9 .9999 .9992 .9963 .9662 .8491 .5968 .2784 .0611 .0023
10 1.0000 .9999 .9993 .9907 .9408 .7827 .4845 .1642 .0127
II 1.0000 .9999 .9981 .9824 .9095 .7031 .3518 .0556
12 1 1.0000 .9997 .9963 .9729 .8732 .6020 .1841
13 1.0000 .9995 .9948 .9647 .8329 .4510
14 1.0000 .9995 .9953 .9648 .7941
15 1.0000 1.0000 1.0000 1.0000
16 0 .1853 ,0281 .0100 .0033 .0003 .0000
1 .5147 .1407 .0635 .0261 .0033 .0003 .0000
2 .7892 .3518 .1971 .0994 .0183 .0021 .0001
3 .9316 .5981 .4050 .2459 .0651 .0106 .0009 .0000
4 .9830 .7982 .6302 .4499 .1666 .0384 .0049 .0003
5 .9967 .9183 .8103 .6598 .3288 .1051 .0191 .0016 .0000
6 .9995 .9733 .9204 .8247 .5272 .2272 .0583 .0071 .0002
7 .9999 .9930 .9729 .9256 .7161 .4018 .1423 .0257 .0015 .0000
8 1.0000 .9985 .9925 .9743 .8577 .5982 .2839 .0744 .0070 .0001
9 .9998 .9984 .9929 .9417 .7728 .4728 .1753 .0267 .0005
10 1.0000 .9997 .9984 .9809 .8949 .6712 .3402 .0817 .0033
11 1.0000 .9997 .9951 .9616 .8334 .5501 .2018 .0170
12 1.0000 .9991 .9894 .9349 .7541 .4019 .0684
13 .9999 .9979 .9817 .9006 .6482 .2108
14 1.0000 .9997 .9967 .9739 .8593 .4853
15 1.0000 .9997 .9967 .9719 .8147
16 1.0000 1.0000 1.0000 1.0000

150
Tabla A.1 Probabilidades de la distribución Binomial, (continuación)

n r .1 0 .2 0 .25 .30 .40 .50 .60 .70 .80 .90

17 0 .1668 0225 0075 .0023 .0 0 0 2 OfXX)


1 .4818 .1182 .0501 .0193 0021 (XX)I IXXX)
2 .7618 .3096 .1637 .0774 0123 .0 0 1 2 .0 0 0 1

3 .9174 .5489 .3530 2019 .0464 .0064 (XX)5 .0 0 0 0

4 .9779 .7582 .5739 .3887 .1260 .0245 .0025 .0 0 0 1

5 .9953 . .8943 .7653 .5968 2639 .0717 .0106 .0007 .0 0 0 0

6 .9992 .9623 .8929 .7752 .4478 1662 0348 .0032 .0 0 0 1

7 .9999 .9891 .9598 .8954 .6405 .3145 .0919 .0127 .0005


8 1 .0 0 0 0 .9974 .9876 .9597 .8011 .5000 .1989 .0403 .0026 .0 0 0 0

9 .9995 .9969 .9873 .9081 .6855 .3595 .1046 .0109 .0 0 0 1

10 .9999 .9994 .9968 .9652 .8338 .5522 .2248 .0377 .0008


11 1.0000 .9999 .9993 .9894 .9283 .7361 .4032 .1057 .0047
12 1.0000 .9999 .9975 .9755 .8740 .6113 .2418 .0 2 2 1

13 1.0000 .9995 .9936 .9536 .7981 .4511 .0826


14 .9999 .9988 .9877 .9226 .6904 .2382
15 1.0000 .9999 .9979 .9807 .8818 .5182
16 ■- .. 1.0000 .9998 .9977 .9775 .8332
17 1.0000 1 0000 1.0000 1.0000
18 0 .1501 .0180 .0056 .0016 .0 0 0 1 .0 0 0 0

1 .4503 .0991 .0395 .0142 .0013 0001

2 .7338 .2713 .1353 .0600 .0082 .0007 .0 0 0 0

3 .9018 .5010 .3057 .1646 .0328 .0038 .0 0 0 2

4 .9718 .7164 .5787 .3327 .0942 .0154 .0013 .0 0 0 0

5 .9936 .8671 .7175 .5344 .2088 .0481 .0058 .0003


6 .9988 .9487 .8610 .7217 .3743 .1189 .0203 .0014 .0 0 0 0
7 .9998 .9837 .9431 .8593 .5634 .2403 .0576 .0061 .0 0 0 2
8 1.0000 .9957 .9807 .9404 .7368 .4073 .1347 .0 2 1 0 .0009
9 .9991 .9946 .9790 .8653 .5927 .2632 .0596 .0043 .0 0 0 0
10 9998 .9988 .9939 .9424 .7597 .4366 .1407 .0163 .0 0 0 2
11 1.0000 .9998 .9986 .9797 .8811 .6257 .2783 .0513 .0 0 1 2
12 1.0000 .9997 .9942 .9519 .7912 .4656 .1329 .0064
13 1.0000 .9987 .9846 .9058 .6673 .2836 .0282
14 .9998 .9962 .9672 .8354 .4990 .0982
15 1.0000 .9993 .9918 .9400 .7287 .2662
16 .9999 .9987 .9858 .9009 .5497
17 1 .0 0 0 0 9999 .9984 .9820 .8499
18 1.0000 1.0000 1 .0 0 0 0 1.0000
__________ i

151
Tabla A.1 Probabilidades de la distribución Binomial, (continuación)

P
n r 10 .20 .25 .30 .40 50 60 .70 80 .90

19 0 .1351 .0144 .0042 0011 .0001


1 .4203 0829 .0310 .0104 .0008 0000
* .7054 .2369 .1113 .0462 .0055 .0004 .0000
3 .8850 .4551 .2631 .1332 .0230 .0022 .0001
4 .9648 .6733 .4654 .2822 .0696 0096 .0006 .0000
5 .9914 .8369 .6678 .4739 .1629 .0318 .0031 .0001
6 .9983 .9324 8251 .6655 .3081 .0835 .0116 .0006
7 .9997 .9767 .9225 .8180 .4878 .1796 .0352 .0028 .0000
8 1.0000 .9933 .9713 .9161 .6675 .3238 .0885 .0105 .0003
9 .9984 .9911 .9674 .8139 5000 .1861 .0326 .0016
10 .9997 .9977 .9895 .9115 .6762 .3325 .0839 .0067 .0000
11 .9999 .9995 .9972 .9648 .8204 .5122 .1820 .0233 .0003
12 1.0000 .9999 .9994 .9884 .9165 .6919 . .3345 .0676 .0017
13 1.0000 .9999 .9969 .9682 .8371 .5261 .1631 .0086
14 1.0000 .9994 .9904 .9304 .7178 .3267 .0352
15 .9999 .9978 .9770 .8668 .5449 .1150
16 _ 1.0000 .9996 .9945 .9538 .7631 .2946
17 1.0000 .9992 .9896 .9171 .5797
18 .9999 .9989 .9856 .8649
19 1 0000 1.0000 1.0000 1.0000
20 0 .1216 .0115 .0032 .0008 .0000
1 .3917 .0692 .0243 .0076 .0005 .0000
2 .6769 .2061 .0913 .0355 .0036 .0002 .0000
3 .8670 .4114 .2252 .1071 .0160 .0013 .0001
4 9568 .6296 .4148 .2375 .0510 .0059 .0003
5 .9887 .8042 .6172 .4164 .1256 .0207 .0016 .0000
6 .9976 .9133 .7858 .6080 .2500 .0577 .0065 .0003
7 .9996 .9679 .8982 .7723 .4159 .1316 .0210 .0013 .0000
8 .9999 .9900 .9591 .8867 .5956 .2517 .0565 .0051 .0001
9 1.0000 .9974 .9861 .9520 .7553 .4119 .1275 .0171 .0006
10 .9994 .9961 .9829 .8725 .5881 .2447 .0480 .0026 .0000
11 .9999 .9991 .9949 .9435 .7483 .4044 .1133 .0100 .0001
12 1.0000 .9998 .9987 .9790 8684 .5841 .2277 .0321 .0004
13 1.0000 .9997 .9935 .9423 .7500 .3920 .0867 .0024
14 1.0000 .9984 .9793 .8744 .5836 .1958 .0113
15 .9997 .9941 .9490 .7625 .3704 .0432
16 1.0000 .9987 .9840 .8929 .5886 .1330
17 .9998 9964 .9645 .7939 .3231
18 1.0000 .9995 .9924 .9308 .6083
19 1.0000 .9992 .9885 .8784
20 1.0000 1.0000 1.0000

BIBLIOTECA
"LIC, JAVIER JUAREZ SANCHEZ*
UNÍDAD ACADEMICA DE ECONOMIA Y
ESTADISTICA
152 veracruzana
Tabla A.2 Probabilidades de la distribución Poisson.

r 0 .1 0 .2 0.3 0.4 0.5 0 .6 0.7 0 .8 0.9

0 0.9048 0.8187 0.7408 0.6730 0.6065 0.5488 0.4966 0.4493 0.4066


1 0.9953 0.9825 0.9631 0.9384 0.9098 0.8781 0.8442 0.8088 0.7725
2 0.9998 0.9989 0.9964 0.9921 0.9856 0.9769 0.9659 0.9526 0.9371
3 1 .0 0 0 0 0.9999 0.9997 0.9992 0.9982 0.9966 0.9942 0.9909 0.9865
4 1 .0 0 0 0 1 .0 0 0 0 0.9999 0.9998 0.9996 0.9992 0.9986 0.9977
5 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0 0.9999 0.9998 0.9997
6 1 .0 0 0 0 1 .0 0 0 0 1 .0 0 0 0

r 1 .0 1.5 2 0 2.5 3.0 3.5 4.0 4.5 5.0

0 0.3679 0.2231 0.1353 0.0821 0.0498 0.0302 0.0183 0 .0 1 1 1 0.0067


1 0.7358 0.5578 0.4060 0.2873 0.1991 0.1359 0.0916 0.0611 0.0404
2 0.9197 0.8088 0.6767 0.5438 0.4232 0.3208 0.2381 0.1736 0.1247
3 0.9810 0.9344 0.8571 0.7576 0.6472 0.5366 0.4335 0.3423 0.2650
4 0.9963 0.9814 0.9473 0.8912 0.8153 0.7254 0.6288 0.5321 0.4405
5 0.9994 0.9955 0.9834 0.9580 0.9161 0.8576 0.7851 0.7029 0.6160
6 0.9999 0.9991 0.9955 0.9858 0.9665 0.9347 0.8893 0.8311 0.7622
7 1 .0 0 0 0 0.9998 0.9989 0.9958 0.9881 0.9733 0.9489 0.9134 0 .8 6 6 6
8 1 .0 0 0 0 0.9998 0.9989 0.9962 0.9901 0.9786 0.9597 0.9319
9 1 .0 0 0 0 0.9997 0.9989 0.9967 0.9919 0.9829 0.9682
10 0.9999 0.9997 0.9990 0.9972 0.9933 0.9863
11 1 .0 0 0 0 0.9999 0.9997 0.9991 0.9976 0.9945
12 1 .0 0 0 0 0.9999 0.9997 0.9992 0.9980
13 1 .0 0 0 0 0.9999 0.9997 0.9993
14 1 .0 0 0 0 0.9999 0.9998
15 1 .0 0 0 0 0.9999
16 1 .0 0 0 0

153
T ab la A.2 Probabilidades de la distribución Poisson, (continuación)

biblioteca

r 55 6 .0 6.5 7.0 7.5 8 .0 8.5 9.0 9.5

0 0.004! 00025 0.0015 0.0009 0.0006 0.0003 0 .0 0 0 2 0 .0 0 0 1 0 .0 0 0 1


1 0 0266 0.0174 0.0113 0.0073 0.0047 0.0030 0.0019 0 .0 0 1 2 0.0008
2 0.0884 0.0620 0.0430 0.0296 0.0203 0.0138 0.0093 0.0062 0.0042
i 0.2017 0.1512 0.1118 0.0818 0.0591 0.0424 0.0301 0 .0 2 1 2 0.0149
4 0.3575 0.2851 0.2237 0.1730 0.1321 0.0996 0.0744 0.0550 0.0403
5 0.5289 0.4457 0.3690 0.3007 0.2414 0.1912 0.1496 0.1157 0.0885
6 0.6860 0.6063 0.5265 0.4497 0.3782 0.3134 0.2562 0.2068 0.1649
7 0.8095 0.7440 0.6728 0.5987 0.5246 0.4530 0.3856 0.3239 0.2687
8 0.8944 0.8472 0.7916 0.7291 0.6620 0.5925 0.5231 0.4557 0.59¡3
i 9 0.9462 0.9161 0.8774 0.8305 0.7764 0.71,66 0.6530 0.5874 0.5218
10 0.9747 0.9574 0.9332 0.9015 0.8622 0.8159 0.7634 0.7060 0.6453
11 0.9890 0.9799 0.9661 0.9466 0.9208 0.8881 0.8487 0.8030 0.7520
12 0.9955 0.9912 0.9840 0.9730 0.9573 0.9362 0.9091 0.8758 0.8364
13 0.9983 0.9964 0.9929 0.9872 0.9784 0.9658 0.9486 0.9261 0.8981
14 0.9994 0.9986 0.9970 0.9943 0.9897 0.9827 0.9726 0.9585 0.9400
1S 0.9998 0.9995 0.9988 0.9976 0.9954 0.9918 0.9862 0.9780 0.9665
16 0.9999 0.9998 0.9996 0.9990 0.9980 0.9963 0.9934 0.9889 0.9823
; 17 1 .0 0 0 0 0.9999 0.9998 0.9996 0.9992 0.9984 0.9970 0.9947 0.9911
18 1 .0 0 0 0 0.9999 0.9999 0.9997 0.9994 0.9987 0.9976 0.9957
19 1 .0 0 0 0 1 .0 0 0 0 0.9999 0.9997 0.9995 0.9989 0.9980
20 1 .0 0 0 0 0.9999 0.9998 0.9996 0.9991
2 Í 1 .0 0 0 0 0.9999 0.9998 0.9996
22 1 .0 0 0 0 0.9999 0.9999
23 - 1 .0 0 0 0 0.9999
24 1 .0 0 0 0

154
Tabla A.2 Probabilidades de la distribución Poisson, (continuación)

r 1 0 .0 1 1 .0 1 2 .0 ' 13.0 14.0 15.0 16.0 17.0 18.0

0 0 .0 0 0 0 0 .0 0 0 0 0 .0 0 0 0
1 0.0005 0 .0 0 0 2 0 .0 0 0 1 0 .0 0 0 0 0 .0 0 0 0
2 00028 0 .0 0 1 2 0.0005 0 .0 0 0 2 0 0001 0 .0 0 0 0 0 .0 0 0 0
3 0.0103 0.0049 0.0023 0 .0 0 1 0 0.0005 0 .0 0 0 2 0 .0 0 0 1 0 .0 0 0 0 0 .0 0 0 0
4 0.0293 0.0151 0.0076 0.0037 0.0018 0.0009 0.0004 0 .0 0 0 2 0 .0 0 0 1
5 0.0671 0.0375 0.0203 0.0107 0.0055 0.0028 0.0Q14 0.0007 0.0003
6 0.1301 0.0786 0.0458 0.0259 0.0142 0.0076 0.0040 0 .0 0 2 1 0 .0 0 1 0
' 7 0 .2 2 0 2 0.1432 0.0895 0.0540 0.0316 0.0180 0 .0 1 0 0 0.0054 0.0029
8 0.3328 0.2320 0.15Í0 0.0998 0.0621 0.0374 0 .0 2 2 0 0.0126 0.0071
9 0.4579 0.3405 0.2424 0.1658 0.1094 0.0699 0.0433 0.0261 0.0154
10 0.5830 0.4599 0.3472 0.2517 0.1757 0.1185 0.0774 0.0491 0.0304
11 0.6968 0.5793 0.4616 0.3532 0.2600 0.1848 0.1270 0.0847 0.0549
12 0.7916 0.6887 0.5760 0.4631 0.3585 0.2676 0.1931 0.1350 0.0917
13 0.8645 0.7813 0.6815 0.5730 0.4644 0.3632 0.2745 0.2009 0.1426
14 0.9165 0.8540 0.7720 0.6751 0.5704 0.4657 0.3675 0.2808 0.2081
1$ 0.9513- 0.9074 0.8444 0.7636 0.6694 0.5681 0.4667 0.3715 0.2867
16 0.9730 0.9441 0.8987 0.8355 0.7559 0.6641 0.5660 0.4677 0.3750
17 0.9857 0.9678 0.9370 0.8905 0.8272 0.7489 0.6593 0.5640 0.4686
18 0.9928 0.9823 0.9626 0.9302 0.8826 0.8195 0.7423 0.6550 0.5622
19 0.9965 0.9907 0.9787 0.9573 0.9235 0.8752 0.8122 0.7363 0.6509
20 0.9984 0.9953 0.9884 0.9750 0.9521 0.9170 0.8682 0.8055 0.7307
21 0.9993 0.9977 0.9939 0.9859 0.9712 0.9469 0.9108 0.8615 0.7991
22 0.9997 0.9990 0.9970 0.9924 0.9833 0.9673 0.9418 0.9047 0.8551
23 0.9999 0.9995 0.9985 0.9960 0.9907 0.9805 0.9633 0.9367 0.8989
24 1 .0 0 0 0 0.9998 0.9993 0.9980 0.9950 0.9888 0.9777 0.9594 0.9317
25 0.9999 0.9997 0.9990 0.9974 0.9938 0.9869 0.9748 0.9554
26 1 .0 0 0 0 0.9999 0.9995 0.9987 0.9967 0.9925 0.9848 0.9718
27 0.9999 0.9998 0.9994 0.9983 0.9959 0.9912 0.9827
28 1 .0 0 0 0 0.9999 0.9997 0.9991 0.9978 0.9950 0.9897
29 1 .0 0 0 0 0.9999 0.9996 0.9989 0.9973 0.9941
30 0.9999 0.9998 0.9994 0.9986 0.9967
31 1 .0 0 0 0 0.9999 0.9997 0.9993 0.9982
32 1 .0 0 0 0 0.9999 0.9996 0.9990
33 0.9999 0 9998 0.9995
34 1 .0 0 0 0 0.9999 0.9998
35 1 .0 0 0 0 0.9999
36 0.9999
37 1 .0 0 0 0
——J ---- - —

155
Tabla A.3 Probabilidades de la distribución Normal.

.0 0 .0 1 .0 2 .03 .04 .05 .06 .07 .08 .09


___________ 1
-3 .4 .0003 .0003 .0003 .0003 0003 .0003 .0003 .0003 .0003 .0 0 0 2

-3 .3 .0005 .0005 .0005 .0004 w .0004 .0004 .0004 .0004 .0004 .0003
-3 .2 .0007 .0007 .0006 .0006' .0006 .0006 .0006 .0005 .0005 .0005
-3 .1 .0 0 1 0 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007
-3 .0 .0013 .0013 .0013 .0 0 1 2 .0 0 1 2 .0 0 1 1 .0 0 1 1 .0 0 1 1 .0 0 1 0 .0 0 1 0

-2 .9 0019 .0018 .0017 0017 .0016 .0016 .0015 .0015 .0014 .0014
- 2 .8 .0026 .0025 .0024 .0023 .0023 .0 0 2 2 .0 0 2 1 .0 0 2 1 .0 0 2 0 .0019
-2 .7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026
- 2 .6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036
-2 .5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048

-2 .4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064
-2 .3 .0107 .0104 .0 1 0 2 .0099 .0096 .0094 .0091 .0089 .0087 .0084
- 2 .2 .4X139 .0136 .0132 .0129 .0125 .0 1 2 2 .0119 .0116 .0113 .0 1 1 0

- 2 .1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143
- 2 .0 .0228 .0 2 2 2 .0217 .0 2 1 2 .0207 .0 2 0 2 .0197 .0192 .0188 .0183

-1 .9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233
- 1 .8 .0359 .0352 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294
-1 .7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367
- 1 .6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455
-1 .5 .0668 .0655 .0643 .0630 .0618 .0606 .0594 .0582 .0571 .0559

-1 .4 .0808 .0793 .0778 0764 .0749 .0735 .0722 .0708 .0694 .0681
-1 .3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823
- 1 .2 .1151 .1131 .1 1 1 2 .1093 .1075 .1056 .1038 .1 0 2 0 .1003 .0985
- 1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1 2 1 0 .1190 .1170
- 1 .0 .1587 .1562 ..1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379

-0 .9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611
- 0 .8 .2119 .2090 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867
-0 .7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148
- 0 .6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451
-0 .5 .3085 .3050 .3015 .2981 .2946 .29.12 .2877 .2843 .2810 .2776

-0 .4 .3446 .3409 .3372 .3336 .3300 .3264 ;3228 .3192 .3156 .3121
-0 .3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483
- 0 .2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859
- 0 .1 .4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247
- 0 .0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641

156
T ab la A.3 Probabilidades de la distribución Normal, (continuación)

.0 0 .0 1 .0 2 03 04 .05 .06 .07 .08 .09


*•

0 0 5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359
0 i 5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753
0 .2 .5793 .5832 .5871 .5910 .5948 .5987 6026 .6064 .6103 .6141
0.3 .6179 6217 .6255 6293 .6331 .6368 .6406 .6443 . .6480 .6517
0.4 .6554 6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879

0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .71,90 .7224
0 .6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549
0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852
0 .8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133
0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389

1 .0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621
1.1 .8643 .8665 .8 6 8 6 .8708 .8729 .8749 .8770 .8790 .8810 .8830
1 .2 .8849 .8869 .8 8 8 8 .8907 .8925 .8944 .8962 .8980 .8997 .9015
1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177
1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9278 .9292 .9306 .9319

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441
1 .6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545
1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633
1 .8 .9641 .9649 .9656 .9664 .9671 .9678 .9686. .9693 .9699 .9706
1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767

2 .0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817
2 .1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857
2 .2 ' .9861 .9864 .9868 .9871 .9875 .9878 ,9881 .9884 .9887 .9890
2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916
2-4 .9918 .9920 .9921 .9925 .9927 .9929 .9931 .9932 .9934 .9936

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952
2 .6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964
2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974
2 .8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981
2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990
3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993
3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995
3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997
3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998

157
Tabla A.5 Valores críticos de la distribución ji-cuadrada.
I

V .995 99 .98 .975 .95 .90 •80 .75 .70 .50

1 0*393 .O1157 .03628 0J982 .00393 .0158 .0642 .1 0 2 .148 .455


2 .0 1 0 0 .0 2 0 1 .0404 .0506 .103 .2 1 1 .446 .575 .713 1.386
3 .0717 .115 .185 .216 .352 .584 1.005 1.213 1.424 2.366
4 ' .207 .297 .429 .484 .711 1.064 1.649 1.923 2.195 3.357
5 .412 .554 .752 .831 1.145 1.610 2.343 2.675 3.000 4.351

6 .676 .872 1.134 1.237 1.635 2.204 3.070 3.455 3.828 5.348
7 .989 1.239 1.564 1.690 2.167 2.833 3.822 4.255 4.671 6.346
8 1.344 1.646 2.032 2.180 2.733 3.490 4.594 5.071 5.527 7.344
9 1:735 2.088 2.532 2.700 3.325 4.168 5.380 5.899 6.393 8.343
10 2.156 2.558 3.059 3.247 3.940 4.865 6.179 6.737 7.267 9.342

II 2.603 3.053 3.609 3.816 4.575 5.578 6.989 7.584 8.148 10.341
12 3.074 3.571 4.178 4.404 5.226 6.304 7.807 8.438 9.034 11.340
13 3.565 4.107 4.765 5.009 5.892 7.042 8.634 9.299 9.926 12.340
14 . 4.075 4.660 5.368 5.629 6.571 7.790 9.467 10.165 10.821 13.339
15 4.601 5.229 5.985 6.262 7.261 8.547 10.307 11.036 11.721 14.339

16 5.142 5.812 6.614 6.908 7.962 9.312 11.152 11.912 12.624 15.338
17 5.697 6.408 7.255 7.564 8.672 10.085 1 2 .0 0 2 12.792 13.531 16.338
18 6.265 7.015 7.906 8.231 9.390 10.865 12.857 13.675 14.440 17.338
19 6.844 7.633 8.567 8.907 10.117 11.651 13.716 14.562 15.352 18.338
20 7.434 8.260 9.237 9.591 10.851 12.443 14.578 15.452 16.266 19.337

21 8.034 8.897 9.915 10.283 11.591 13.240 15.445 16.344 17.182 20.337
22 8.643 9.542 10.600 10.982 12.338 14.041 16.314 17.240 18.101 21.337
23 9.260 10.196 11.293 1 1 .6 8 8 13.091 14.848 17.187 18.137 19.021 22.337
24 9.886 10.856 11.992 12.401 13.848 15.659 18.062 19.037 19.943 23.337
25 10.520 11.524 12.697 13.120 14.611 16.473 18.940 19.939 20.867 24.337

26 11.160 12.198 13.409 13.844 15.379 17.292 19.820 20.843 21.792 25.336
27 11.808 12.879 14.125 14.573 16.151 18.114 20.703 21.749 22.719 26.336
28 12.461 13.565 14.847 15.308 16.928 18.939 21.588 22.657 23.647 27.336
29 13.121 14.256 15.574 16.047 17.708 19.768 22.475 23.567 24.577 28.336
30 13.787 14.953 16.306 16.791 18.493 20.599 23.364 24.478 25.508 29.336

158
Tabla A.5 Valores críticos de la distribución ji-cuadrada (continuación)

4
3 •

V « . 30 .25 .2 0 .1 0 .05 .025 .0 2 .0 1 005 001

1 1.074 1.323 1.642 2.706 3.841 5.024 5.412 6 635 7.879 10827
*> 2.40X 2.773 3.219 4 605 5.991 7.378 7.824 9.210 10597 13.815
y 3665 4.108 4.642 6.251 7.815 9.348 9.837 II 345 12.838 16.268
a 4.X7X 5.385 5.9X9 7.779 9488 11.143 1 1 .6 6 8 13.277 14.860 18.465
5 6 064 6.626 7.2X9 9236 11.070 12.832 13.388 15 086 16 750 20.517

6 7 231 . 7.841 8.558 10 645 12.592 14.449 15.033 16X12 18.548 22.457
7 X 3X3 9.037 9 805 12.017 14.067 16.013 16.622 18.475 20.278 24.322
X 9.524 10.219 11.030 13.362 15.507 17.535 18.168 20.090 21.955 26.125
9 10.656 11.389 12.242 14.684 16 919 19.023 19.679 2 1 .6 6 6 23.589 27.877
10 11.781 12.549 13.442 15.987 18.307 20.483 21.161 23.209 25.188 29.588

11 12.899 13.701 14.631 17.275 19.675 21.920 22.618 24.725 26.757 31.264
i: 14.011 14.845 15.812 18.549 21.026 23.337 24.054 26.217 28.300 32.909
13 15.119 15.984 16.985 19.812 22.362 24.736 25.472 ■ 27.688 29.819 34.528
14 16.222 17.117 18.151 21.064 23.685 26.119 26.873 29.141 31.319 36.123
15 17.322 18.245 19.311 22.307 24.996 27.488 28.259 30.578 32.801 37.697

16 18.418 19.369 20.465 23.542 26.296 28.845 29.633 32.000 34.267 39.252
17 19.511 20.489 21.615 24.769 27.587 30.191 30.995 33.409 35.718 40.790
18 20.601 21.605 22.760 25.989 28.869 31.526 32.346 34.805 37.156 42.312
19 21.689 22.718 23.900 27.204 30.144 32.852 33.687 36.191 38.582 43.820
20 22.775 23.828 25.038 28.412 31.410 34.170 35.020 37.566 39.997 45.315

21 23.858 24.935 26.171 29.615 32.671 35.479 36.343 38.932 41.401 46.797
22 24.939 26.039 27.301 30.813 33.924 36.781 37.659 40.289 42.796 48.268
23 26.018 27.141 28.429 32.007 35.172 38.076 38.968 41.638 44.181 49.728
24 27.096 28.241 29.553 33.196 36.415 39.364 40.270 42.980 45.558 51.179
25 28.172 29.339 30.675 34.382 37.652 40.646 41.566 44.314 46.928 52.620

26 29.246 30.434 31.795 35.563 38.885 41.923 42.856 45.642 48.290 $4.052
27 30.319 31.528 32.912 ■36.741 40.113 43.194 44.140 46.963 49.645 55.476
28 31.391 32.620 34.027 37.916 41.337 44.461 45.419 48.278 50.993 56.893
29 32.461 33.711 35.139 39.087 42.557 45.722 46.693 49.588 52.336 58.302
30 33.530 34.800 36.250 40.256 43.773 46.979 47.962 50.892 53.672 59.703

159
*E1 estadístico de prueba.es una variable aleatoria discreta. Por esa
razón, ol nivel de significancia exacta puede ser m enor que el dado
40

^ o w t**
vcoccnh HOOOJO
N iO O lf lO lO ^
00 00 t**C5
C- OC
0
iO d 00 40 M COI.

66
CO CO 40 40 40 CO £
8 co co co co co co co co d d d d d d d d d d d d ^ L^.
H ^
d *-«o Ho lO
o O tQlOO
0500 hh c
on» ^h r^^»-«ooio d40
66

b
86
C0 CO 40 40 40 ^ ^ 00 CO
co co co co d d d d d d d d d d d
Tabla A.7 Cuantiles para la prueba de Kolmogorov-Smimov para dos muestras de igual tamaño.

Fuente: adaptada de B irnba u m y H a ll (HIGO).


IO 05 O CD d 00 "V C- ’«f ^ co «o « c co
ooo*-íor- cc co NL
lG 05
OWíOWüONtJ*Ntt
•a
£

*«4
c
a 8
¿j
«2
40
05 d W W (N W
co co co d d
d d d d d d d d d d
< co

b
3 iO
3
O
05 COt*» d 00
lO 40-"T ^ CO
CO
W
0540 00
WN W h
^ H X iO N Ci CO TJ* —< C5 d
e
•o
05 0
•O 05 d OId OíOí N WN W M
^ ^ c O c
d d d d d
C3 O O C5 X d

3 k
§
4 «^ © ^ C t* COO ‘t* t-Tf d O00 IO£
i
t " T W C3
o
05
O
00
d d—
O ^ CO d 00
d d d d d
o o o o o
N N H H H
00 00 00 - t- co ce w
k
a. 0.
c
"c c ^ d CO ^ 40 C0 C** 00 05 © •-< d co 40 coc^oooo 2 T
WWNCKN M (N C1 C5 CO co co co co co co co co co js A

8 8 8 3 8 S c S a S í 8 8 8 2 3 8 3 £ ® S
1 8 q q ® t~ ® ® *5 o iq q 55 q cq q q

A
s $ §Io Hio al st- t> «t-o t-
£ 2 2 ?!$
m» j c i*
53§8S
«o
$8388
® t- a

£ 3 8 3 3 2 S 2 8 g . 3 g S 3 8 S 2 8 S S
j i ■ j ' q 0) CO t* (0 » 40 -V co co « co co co co co co d

I
■o
q
«O

i
s l ^ i i %im P § s l M K I

4 4
o o
q
§ toto a « Ongisnoi
2 « eo t» h í o i í )
® o t? •«f < t n n n n
c a « t~® Smo oSn Sin
5 $ 5 £ 8
co e» e* c* c*
v 6n« «ma
q

a :•• .v -- — ., -• 1 :

-r ^ d co io 0
7

9
8
6

h d co ^ 0 CD t - • 0> O
*■ < N H f>4 H H H H H H d

IC- «¿-X- S¿ vj W ^ M 51 & .< - I c-í í-í *;•> ~


<1
-i Íáí *•* £ x X ■*; ^ *£ S ' v?- w
r- ^ ‘cc £•- *•, ...» *-

■;v J . 5 -v.
/
— -—
L

160
HOAh 2 * *— © IA IA « HA , 00 nm nm AAo s 00 9 n.IA

9/30
OH £ a * ? ! * * sIAá =—s ** f5 ^ s ^•* «A «*o» HO

1/2
3/5
X

▼ **
Tabla A . 8 Cuantiles para la prueba de Kolmogorov-Smirnov para dos muestras de diferente tamaño.

'O O * 00 o <e 00 9 O o «o e*t «^*ao'9n. 5 9 S.«


£ O00H — S S S S * s s“ s s- . sMsMs M Oh
"* «A
—O h«•

1/5

7/2
7/1
6N !

9/1
5/7
* •**A **
vtr» o n ho HA 9
» 9(Ar*O n00 SSCJCJ e 00
C HOCf-HA 9 9
«A TiHO.
"3C Oh
HOAH «n *o *M w— ha «rsa r- w — n — s s s Í—Í ÍA fA r-*•»»k IA

1/2
5/9
7/3
6/4
1 fH~ ** •*
| 3
5 ha HO C oo 2c 9 <s HAO rsrs
Oeh
Ti,
Oh se
«A ec:»c? IA cf CSCJCJC SSS5? §£S5i 00
IA HAO «A — — -« f*

2/5
IA —n fA —
•s.

1 g
* 8 £ e00
•HaO9(AiO-* r- r** Nc N* N<oN<s HsAs - OsOsHO s s |
S»OfS-*A C AHOflo
Óo 900 *.r-
o
<NIA IA «M«« *« ««a m «-«•*
a m 8 ?«s

í* 00& O
—* 0At0 OOMOC4 9«M«M <Soo o *O HAHOooo cfO.- 8 H§ &
m H~AM
M no
—*** "* m * |
¡fe 00 OH O (1 HA HO Ki s
¡S ! í^>
í i í

01 ©—<—
n 9 9 r» A A A W-*1^ HA^ —X
HA

£ O
Ohh ^ 55 S a a * * * : : ; * 9^ 4ffJí ^^ r*—1^
9f-*0CO‘oí »A9-* fí 1^
?)

r» 00OSh9—
a s>0 v"t9f-«X9«A*^
11/15

13/18
7/10
7/10
29/35

7/10
O
OHh O00h S rs *fc S rS rS *;*¡*

5/7

5/8
3/4
5/6
7/9

2/3
2/3
4/5

9 hO M íN—«—N—*
^ <AIAIA
Hr-A £K a5 *-
27/40
7/10
31/45

HOAh 5<HS S 3;—?=:=


—F=
3/5
2/3
5/7

S3SSSS3
2/3

? Oh "ac
i 1i© e «AX HAHAHAAl9
5 *3r=S*
X Ohha tflAf-XlAlNfAX s,IA «A
N <SIANHSA,*s S sIA >.— 5 5 S p S S
7/10

9Oh ?i?íS5ící£?*5s fA IA
5/7
2/3
3/4
2/3
2/3
3/4
4/5

Oh
HA


s¡ s
23/42

11/24
00 O M « X S N O

$3535ís s í ^ ^ $1 ^ S 5 ¡« S S S
4/9
1/ 2
1/ 2
1/2
1/2

««A fA lA X lA H A r*

4.
m

a.
/
í" Oh O * A 4 f r H A 9 f ,* X O H 9 ^ H A 9 f^ 0 0 O H 9 < S «A 9 r* X O» 9 C4 9 9 f* X
~—
Oh 9 ha 9
W
N X » S
———M K «
<S

5t N IA * HA 9

• —....

161
Tabla A. 1 0 .Valores críticos de D*
\

T am añ o
m u és i ro í
ñ 0,0 0o, 0o,

1 0950< 0.975 0995


*> 0 776 0.842 0929
3 0642 0708 0828
4 0564 0 624 0733
5 0510 0565 0 669

6 0470 0 521 0618


7 0438 0.486 0577
8 0 411 0.457 0.543
9 0388 0.432 0.514
10 0368 0.410 0490

II 0352 0391 0.468


12 033* 0.375 0450
13 0325 0.361 0433
14 0314 0349 0418
15 0304 0.338 0404

16 0295 0328 0392


17 0286 0.318 0381
18 0278 0309 0371
19 0 272 0301 0363
20 0264 0294 0 356

25 024 027 032


30 022 024 029

• Adaptada de F. 1 Mattey. Jr.. "The


KolfomorovSmirnov test fot joodnest of fit." J
\ A m er, S t a t is i. A s i ., Vol. 46 (19J1). p. 70. con atxori-
ración del autor y del editor.

162
T a b la A. 12 Valores críticos de la distribución U.

.,-5
«i

V» / i 3 4 3
P { f J S U 0) ; l/0 es el argumento; n, s n2;
3 i na S 10. 0.1667
0 0.0476 0.0179 0.0079 0.0040
«i«3 1 0.3333 0.0952 0.0357 0.0159 0.0079
2 0.5000 0.1905 0.0714 0.0317 0.0159
3 0.2857 0.1250 0.0556 0.0278
«i •
4 0.4286 0.1964 0.0952 0.0476
5 0.5714 0.2857 0.1429 0.0754
V» 1 i 3 6 0.3929 0.2063 0.1111
7 0.5000 0.2778 0.1548
8 0.3651 0.2103
0 0.25 0.10 0.05
9 0.4524 0.2738
1 0.50 0.20 0.10
2
3
0.40
0.60
0.20
0.35
10
11
12 * *f‘; ‘ Mi*
“ .1
-..
< ::
»
í v 'i 0
03476
.. -f*
0.3452
■ 0.4206
0.5000
-;.
4 0.50

■ * '
■ a ■ ».4

i — •l •
>
Va i i 3 4 5 6
Va ■ y-- * J « 1 4

0 0.1429 0.0357 0.0119 0.0048 0.0022 0.0011


0 0.2000 0.0667 0.0286 __ 0.0143 0.2857 0.0714 0.0043
1 0.0238 0.0095 0.0022
1 0.4000 0.1333 0.0571 0.0286 0.0087
2 0.4286 0.1429 0.0476 0.0190 0.0043
2 0.6000 0.2667 "0.1143 0.0571
3 0.5714 0.2143 0.0833 0.0333 0.0152 0.0076
3 0.4000 0.2000 0.1000
4 0.3214 0.1310 0.0571 0.0260 0.0130
4 0.6000 03143 0.1714
5 0.4286 0.1905 -0.0857 0.0411 0.0206
S 0.4286 0.2429 6 0.5714 0.2738’ 0 1286* 0.0628 0.0325
6 0.5714 0.3429 0.0887
7 0.3571 0.1762 0.0465
7 0.4429
8 0.4524 0.2381 0.1234 0.0660
8 0.5571
9 0.5476 0.3048 0.1645 0.0898
10 0.3810 0.2143 0.1201
( continúa ) 11 0.4571 0.2684 0.1548
12 0.5429 0.3312 0.1970
13 03961 0.2424
14 0.4654 0.2944
15 0.5346 0.3496
16 0.4091
17 0.4686
18 0.5314

(c o n tin ú a )
T a b la A . 12 Valores críticos de la distribución U. (continuación)

.,-7
"l

i; i i 3 4 3 6 7

0 0.1250 0.0278 0.0083 0.0030 0.0013 0.0006 0.0003


i 0.2500 0.0556 0.0167 0.0061 0.0025 0.0012 0.0006
2 0.3750 0.1111 0.0333 0.Ó121 0.0051 0.0023 0.0012
3 0.5000 0.1667 0.0583 0.0212 0.0088 0.0041 0.0020
4 0.2500 0.0917 0.0364 0.0152 0.0070 0.0035
5 0.3333 0.1333 0.0545 0.0240 0.0111 0.0055
6 0.4444 0.1917 0.0818 0.0366 0.0175 0.0087
7 0.5556 0.2583 0.1152 0.0530 0.0256 0.0131
8 0.3333 0.1576 0.0745 0.0367 0.0189
9 0.4167 0.2061 0.1010 0.0507 0.0265
10 - *■‘ •' •; 0.5000 0.2636 0.1338 0.0688 0.0364
11 0.3242 0.1717 0.0903 0.0487
12 0.3939 0.2159 0.1171 0.0641
13 0.4636 0.2652 0.1474 0.0825
14 0.5364 0.3194 0.1830 0.1043
15 •- - - A 0.3775 0.2226 0.1297
16 ___ 0.4381 0.2669 0.1588
17 0.5000 0.3141 0.1914
Í8 -v : - ■ 0.3654 0.2279
19 0.4178 0.2675
20 0,4726 OJIOO
21 0.5274 0.3552
22 0.4024
23 0.4508
24 0.5000

{continúa).

164
T a b la A. 12 Valores críticos de la distribución U. (continuación)

"l

t. / t 3 4 J 6 7 H

0 0.1111 0.0222 0.0061 0.0020 0.0008 0.0003 0.0002 0.0001


1 0.2222 0.0444 0.0121 0.0040 0.0016 0.0007 0.0003 0.0002
2 0.3333 0.0889 0.0242 0.0081 0.0031 0.0013 0.0006 0.0003
3 0.4444 0.1333 0.0424 0.0141 0.0054 0.0023 0.0011 0.0005
4 0.5556 0.2000 0.0667 0.0242 0.0093 0.0040 0.0019 0.0009
5 0.2667 0.0970 0.0364 0.0148 0.0063 0.0030 0.0015
6 0.3556 0.1394 0.0545 0.0225 0.0100 0.0047 0.0023
7 0.4444 0.1879 0.0768 0.0326 0.0147 0.0070 0.0035
8 0.5556 0.2485 0.1071 0.0466 0.0213 0.0103 0.0052
9 0.3152 0.1414 0.0637 0.0296 0.0145 0.0074
10 0.3879 0.1838 0.0855 0.0406 0.0200 0.0103
11 0.4606 0.2303 0.1111 0.0539 0.0270 0.0141
12 '■i 0.539* 0.2848 0.1422 0.0709 0.0361 0.0190
13 ■ " X 0.3414 0.1772 0.0906 0.0469 0.0249
14 0.4040 0-2176 0.1142 0.0603 0.0325
tr 0.4667 0-2618 0.1412 0.0760 0.0415.
15
16 0.5333 0.3108 0.1725 0.0946 0.0524.
17- -V - " í „ 1
.- 0.3621 0.2068' 0.fl59 0.0652
18 0.4165 0.2454 0.1405 0.0803
19 . - 0.4716 0.2864 0.1678 0.0974
20 0.5284 0.3310 0.1984 0.1172
21 0.3773 0.2317 0.1393
22 0.4259 0.2679 0.1641
23 0.4749 0.3063 0.1911
24 0.5251 0.3472 0.2209
25 0.3894 0.2527
26 0.4333 0.2869
27 0.4775 0.3227
28 0.5225 0.3605
29 0.3992
30 0.4392
31 0.4796
32 0.5204

(co n tin ú a ) I

165
T a b la A. 12 Valores críticos de la distribución U. (continuación)

- 9

C. / 1 3 4 3 8 7 8 9

0 0.1000 0.0182 0.0045 0.0014 0.0005 0.0002 0.0001 0.0000 0.0000


1 0.2000 0.0364 0.0091 0.0028 0.0010 0.0004 0.0002 0.0001 0.0000
2 0.3000 0.0727 0.0182 0.0056 0.0020 0.0008 0.0003 0.0002 0.0001
3 0.4000 0.1091 0.0318 0.0098 0.0035 0.0014 0.0006 0.0003 0.0001
4 0.5000 0.1636 0.0500 0.0168 0.0060 0.0024 0.0010 0.0005 0.0002
5 0.2182 0.0727 0.0252 0.0095 0.0038 0.0017 0.0008 0.0004
6 0.2909 0.1045 0.0378 0.0145 0.0060 0.0026 0.0012 0.0006
7 0.3636 0.1409 0.0531 0.0210 0.0088 0.0039 0.0019 0.0009
8 0.4545 0.1864 0.0741 0.0300 0.0128 0.0058 0.0028 0.0014
9 0.5455 0.2409 0.0993 0.0415 0.0180 0.0082 0.0039 0.0020
■s •: 0.0559 0.0248 0.0115 0.0056
■. > - ; ••
10 0.3000 0.1301 0.0028
11 0.3636 0.1650 0.0734 0.0332 0.0156 0.0076 0.0039
12 > 0.4318 0.2070 0.0949 0.0440 0.0209 0.0103 0.0053
13 .-í 'i * < ' ~ r í
0.5000 0 0.2517 0.1199 0.0567 0.0274 0.0137 0.0071
~ .
14 ;-L . ' 0.3021 0.1489 0.0723 0.0356 0.0180 0.0094
15 ■ s ■ .7 *. ' 0.3552 0.1818 0.0905 0.0454 0.0232 0.0122
16 0.4126 0.2188 0.1119 0.0571 0.02% 0.0157
17 0.4699 0.2592 0.1361 0.0708 0.0372 0.0200
18 0.5301 0.3032 0.1638 0.0869 0.0464 0.0252
19 0.3497 0.1942 0.1052 0.0570 0.0313
20 0.3986 0.2280 0.1261 0.0694 0.0385
21 0.4491 0.2643 0.1496 0.0836 0.0470
22 0.5000 0.3035 0.1755 0.0998 0.0567
23 0.3445 0.2039 0.1179 0.0680
24 0.3878 0.2349 0.1383 0.0807
25 . 0.4320 0.2680 0.1606 0.0951
26 0.4773 0.3032 0.1852 0.1112
27 0.5227 0.3403 0.2117 0.1290
28 0.3788 0.2404 0.1487
29 0.4185 0.2707 0.1701
30 0.4591 0.3029 0.1933
31 0.5000 0.3365 0.2181
32 0.3715 0.2447
33 0.4074 0.2729
34 0.4442 0.3024
*
35 0.4813 0.3332
36 0.5187 0.3652
37 0.3981
38 0.4317
39 0.4657
40 0.5000

166
Tabla A.12 Valores críticos de la distribución U. (continuación)

n, - to

"l
V, 7 i 3 4 5 6 7 8 9 10

0 0.0909 0.0152 0.0035 0.0010 0.0003 0.0001 0.0001 0.0000 0.0000 0.0000
1 0.1818 0.0303 0.0070 0.0020 0.0007 0.0002 0.0001 0.0000 0.0000 0.0000
2 0.2727 0.0606 0.0140 0.0040 0.0013 0.0005 0.0002 0.0001 0.0000 0.0000
3 0.3636 0.0909 0.0245 0.0070 0.0023 0.0009 0.0004 0.0002 0.0001 0.0000
4 0.4545 0.1364 0.0385 0.0120 0.0040 0.0015 0.0006 0.0003 0.0001 0.0001
5 0.5455 0.1818 0.0559 0.0180 0.0063 0.0024 0.0010 0.0004 0.0002 0.0001
6 0.2424 0.0804 0.0270 0.0097 0.0037 0.0015 0.0007 0.0003 0.0002
7 0.3030 0.1084 0.0380 0.0140 0.0055 0.0023 0.0010 0.0005 0.0002
8 0.3788 0.1434 0.0529 0.0200 0.0080 0.0034 0.0015 0.0007 0.0004
9 0.4545 0.1853 0.0709 0.0276 0.0112 0.0048 0.0022 0.0011 0.0005
10 0.5455 0.2343 0.0939 0.0376 0.0156 0.0068 0.0031 0.0015 0.0008
11 0.2867 0.1199 0.0496 0.0210 0.0093 0.0043 0.0021 0.0010
12 0.3462 0.1518 0.0646 0.0280 0.0125 0.0058 0.0028 0.0014
13 0.4056 0.1868 0.0823 0.0363 0.0165 0.0078 0.0038 0.0019
14 0.4685 0.2268 0.1032 0.0467 0.0215 0.0103 0.0031 0.0026
15 0.5315 0.2697 0.1272 0.0589 0.0277 0.0133 0.0066 0.0034
16 0.3177 0.1548 0.0736 0.0351 0.0171 0.0086 0.0045
17 0.3666 0.1855 0.0903 0.0439 0.0217 0.0110 0.0057
18 0.41% 0.2198 0.1099 0.0544 0.0273 0.0140 0.0073
19 0.4725 0.2567 0.1317 0.0665 0.0338 0.0175 0.0093
20 0.5275 0.2970 0.1566 0.0806 0.0416 0.0217 0.0116
21 0.3393 0.1838 0.0966 0.0506 0.0267 0.0144
22 0.3839 0.2139 0.1148 0.0610 0.0326 6.0177
23 0.4296 0.2461 0.1349 0.0729 0.0394 0.0216
24 0.4765 0.2811 0.1574 0.0864 0.0474 0.0262
25 0.5235 0.3177 0.1819 0.1015 0.0564 0.0315
26 0.3564 0.2087 0.1185 0.0667 0.0376
27 0.3962 0.2374 0.1371 0.0782 0.0446
28 0.4374 0.2681 0.1577 0.0912 0.0526
29 0.4789 0.3004 0.1800 0.1055 0.0613
30 0.5211 0.3345 0.2041 0.1214 0.0716
31 0.3698 0.2299 0.1388 0.0827
32 0.4063 0.2574 0.1577 0.0952
33 0.4434 0.2863 0.1781 0.1088
34 0.4311 0.3167 0.2001 0.1237
35 0.5189 0.3482 0.2235 0.1399
36 0.3809 0.2483 0.1575
37 0.4143 0.2745 0.1763
38 0.4484 0.3019 0.1965
39 0.4827 0.3304 0.2179

( continúa )
Tabla A. 12 Valores críticos de la distribución U. (continuación)

(con clu / e)

n, - 10

"l
t, / i 3 4 5 8 7 8 9 10

40 0.5173 0.3598 0.2406


41 0.3901 0.2644
42 0.4211 0.2894
43 0.4524 0.3153
44 0.4841 0.3421
45 0.5159 0.3697
46 0.3980
47 0.4267
48 0.4559
49 0.4853
50 0.5147

Fuente: Cálculos por M. Pagano, Department of Statistics, University of Florida,

TABLA 13 Valores críticos de T en la Prueba de Rangos con Signo de Wilcoxon: n = 5(1)50

U n ilateral B ila te ra l » »5 n> 6 n- 7 n■ 8 • ** 9 n a 10

P = 0.05 P = 0.10 i 2 4 6 8 11
P = 0.025 P = 0.05 1 ' 2 4 6 8
P = 0.01 P = 0.02 0 2 3 5
P = 0.005 P = 0.01 0 2 3

U n ilateral B ila te ra l n = 11 n = 12 n s 13 n ™ 14 n = 15 n = 10

P = 0.05 P = OríO 14 17 21 26 30 36
P = 0.025 P = 0.05 11 14 17 21 25 30
P = 0.01 P = 0.02 7 10 13 16 20 24
P = 0.005 P = 0.01 5• 7 10 13 16 19

U n ilateral B ila te ra l n * 17 n = 18 n » 19 ti = 20 n = 21 n = 22

P = 0.05 P = 0.10 41 47 54 60 68 75
P = 0.025 P = 0.05 . 35 40 46 52 59 66
P = 0.01 P = 0.02 28 33 38 43 49 56
P = 0.005 P = 0.01 23 28 32 37 43 49

(c o n tin ú a )

16K
T a bla A .1 6 Valores críticos para la prueba de rango con signo.

Unilateral« — 0 01 Unilateral «= 0 .0 2 5 Unilateral« = 0.05


n Bilateral « = 0.02 Bilateral a = 0.05 Bilateral « = 0.10

5 1
6 1 2
7 0 2 4
8 2 4 6
9 3 6 8
10 5 8 11
II 7 11 14
12 10 14 17
13 13 17 21
14 16 21 26
15 20 25 30
16 24 30 36
17 28 35 41
18 33 40 47
19 38 46 54
20 43 52 60
21 49 59 68
22 56 66 75
23 62 73 , 83
24 69 81 J 92
25 77 90 101
26 85 98 110
27 93 107 120
28 102 117 130
29 111 127 141
30 120 137 152

’ Reproducida de F. W ilcoxon y R. A . W ilcox, Some Rapid Approximate Statistical


Procedures, American Cyanam id Company, Pearl River, N. Y ., 1964, con el
permiso de la American Cyanamid Company."

169
T a b la A i 7 Valores críticos para la prueba be sum a de rangos.

Prueba de una cola con a - 0.001 o prueba de dos colas con a = 0.002

"r

rt, 6 7 8 9 10 II 12 13 14 15 16 17 18 19. 20

1
2
3 0 0 0 0
4 0 0 0 1 1 1 2 2 3 3 3
5 0 0 1 1 2 2 3 3 4 5 5 6 7 7
6 0 1 2 * 3 4 4 5 6 7 8 9 10 II 12
7 2 3 3 5 6 7 8 9 10 11 13 14 15 16
8 5 5 6 8 9 11 12 14 15 17 18 20 21
9 7 8 10 12 14 15 17 19 21 23 25 26
10 10 12 14 17 19 21 23 25 27 29 32
II 15 17 20 22 24 27 29 32 34 37
12 20 23 25 28 31 34 37 40 42
13 26 29 32 35 38 42 45 48
14 32 36 39 43 46 50 54
15 40 43 47 SI 55 59
16 48 52 56 60 65
17 57 61 66 70
18 66 71 76
19 77 82
20 88 -

Prueba de una cola con a = 0.01 o prueba de dos colas con ar = 0.02

Bulletin o f the Institute o f Educational Research at Indiana University, Vo l. 1, No. 2, 1953, con el permiso del
director.
T a b la A .1 7 Valores críticos para la prueba be suma de rangos,
(continuación)

Prueba de una cola con a = 0.025 o prueba de dos colas con a = 0.05

17!
T a b la A .21 Valores críticos del coeficiente ce correlación de rango de >
Spearman.

1 T~~,m
mmm
í n a = 0 05 a = 0.025 a = 0.01 a = 0.005
5 0.900 _ _ i
6 0.829 0886 0 94.1 _

7 0.714 0.786 0 89.1 —

X 0.64.1 0.718 0.8.1.1 0 881


4 ' 06(8) 068.1 0.78.1 0.81.1
.111 0 564 0.648 0 745 0 744
11 0 525 0.62.1 0 7.16 0 818
i: 0 447 O541 0.703 0.780
11 . 0 475 0 566 0.67.1 0.745
14 0 457 0.545' 0 646 0 716
15 0441 0 525 0.623 0 684
16 0425 0 507 0601 0666
17 0 412 0 490 0.5X2 0 645 j
IX 0..144 0 476 0.564 0625 ;
14 1) IXK 1)462 0.549 0 608 •
:<) 0 'W7 0.450 0 5.14 0 541
:i 0 .168 0 4.18 0.521 0 576
0.159 . 0428 0.508 0.562 1
0 551 0.418 0 496 0.544 i
0 .141 0.404 0.485 0.5.17
*>s 0.1.16 0400 0.475 0.526
36 0.i:9 0192 0.465 0.515
27 0 .12.1 0.185 0.456 0.505
2x 0.317 0.177 0.448 0446
24 o.n 1 0.170 0.440 0.4X7
' u» 0 .105 0.164 0.4.12 0.478
í
•Reproducida de E O. Otds, “ Distribution of Sums oí Squarcs oí Rank
Offcrcnces for Small Samples", A n n . M a i h . Slal., Vol. 9, 1938, con permiso
del editor.

172
BIBLIOGRAFIA

1 . - Canavos C. George (1994). Probabilidad y Estadística.


Aplicaciones y Métodos. McGraw Hill. México.

2. - Castillo M. y Ojeda R. (1994). Principios de Estadística no


Paramétrica. Divulgación Universidad Veracruzana. Jalapa, Ver.
México.

3. - Cruz. M. (1982). Métodos no Paramétricos. Tesis Profesional.


Facultad de Estadística. Universidad Veracruzana. Jalapa, Ver.,
México.

4. - Infante Said. (1986). Métodos Estadísticos. Trillas. México.

5. - Levin R. (1989). Estadística para administradores. Prentice Hall.


México.

6 . - Mendenhall William. (1900). Estadística para Administradores.


Grupo Editorial Iberoamérica. México.

7. - Mendenhall William. (1993). Estadística Matemática con


aplicaciones. Grupo Editorial Iberoamérica. México.

8 . - Walpole-Myers. (1994). Probabilidad y Estadística.


McGraw-Hill México.

9. - Robert Jonhson. (1993). Estadística Elemental. Grupo Editorial


Iberoamérica. México

Das könnte Ihnen auch gefallen