Sie sind auf Seite 1von 30

UNIVERSIDAD

NACIONAL AGRARIA LA
MOLINA
FACULTAD DE INGENIERIA EN
INDUSTRIAS ALIMENTARIAS

REVISIN DE LOS
FUNDAMENTOS DE
ESTADSTICA
CONTROL DE CALIDAD

INTEGRANTES:
Andamay Adaudto, Maria luz
Condori Huanca, Gabriela pilar

CATEDRATICO: Ing Mg. Sc. Jenny del Carmen


Valdez Arana
2.1 distribucin de frecuencia

2.1.1 Definiciones relativas a las distribuciones de frecuencias

Distribucin de frecuencia:

En una forma simple, la distribucin de frecuencia es una tabla que indica el nmero de
observaciones o su frecuencia dentro de un rango de valores de una variable (Salinas y
Miranda, 2010).

Frecuencia relativa:

El resultado de dividir la frecuencia absoluta de un determinado valor entre el nmero total


de datos, se representa por n. La suma de las frecuencias relativas es igual a 1. Lo cual
puede verse fcilmente si se factoriza N (Salinas y Miranda, 2010).

Frecuencia acumulada:
La suma de frecuencias absolutas de todos los valores iguales o inferiores al valor
considerado, se representa por Fi (Salinas y Miranda, 2010).
Clase: (nmero de intervalos)
Se utilizan exclusivamente para variables cuantitativas continuas y excepcionalmente para
variables cuantitativas discretas cuando el nmero de datos es relativamente grande (30). El
nmero de intervalos de clase es fijado por la persona que construye la tabla de frecuencias
de acuerdo a su experiencia (naturaleza, magnitud y orden de los datos) o determinado
mediante frmulas empricas (sturges). Generalmente se usa el mismo tamao de intervalo
de clase (TIC) o amplitud (A) y las observaciones son clasificadas en rangos cuyos lmites son
traslapantes, es decir, el valor del lmite superior de la clase i es igual al lmite inferior de la
clase i+1 (Salinas y Miranda, 2010).

clase Intervalo
1 [LI1 - LS1>
2 [LI2 LS2>
.
.
.
k [LIk LSk > o ]

Donde:
LI i= Lmite inferior de la clase i
LS i= Lmite superior de la clase i
LI 1= X Mnimo
K = numero de intervalos

Se cumple:
LI i = LS i TIC
LS i = LI i + TIC
LI (i+1)= LI i + TIC
Rango:

El rango mide la distancia que existe entre los valores extremos. Es una
medida de dispersin de datos, se calcula de la siguiente manera:

Rango = Valor Mximo - Valor Mnimo

Es decir localiza el nmero mayor de la serie de datos que tengas y el


nmero menor de la misma serie, al mayor le restas el menor (Salinas y
Miranda, 2010).

2.1.2 Representaciones Graficas:

Histograma de frecuencia:

Los histogramas de frecuencias son diagramas de barras empleados para resumir e Ilustrar
la variacin que se presenta en un conjunto de datos. Sirven para investigar cmo se puede
solucionar un problema o mejorar un proceso (Fernndez et. al, 2002).

Polgono de frecuencia:

Tambin llamado polgono de frecuencia, es el nombre que recibe una clase de grafico que
se crea a partir de un histograma de frecuencia. Podramos decir que es el que se forma a
partir de la unin de los distintos puntos medios de la sima de la columna que configura lo
que es un diagrama de frecuencia. Normalmente se utiliza el polgono de frecuencias con
frecuencias absolutas, pero tambin se utiliza con frecuencias relativas (Fernndez et. al,
2002).

Diagrama de barras:

Un grfico de barras, tambin conocido como grafico de columnas, es una forma de


representar grficamente un conjunto de datos o valores, y est conformado por barras
rectangulares de longitudes proporcionales a los valores representados. Los grficos de
barras son usados para comparar dos o ms valores. Las barras pueden orientarse
verticalmente u horizontalmente (Fernndez et. al, 2002).

Diagrama de frecuencia:

Diagrama de frecuencia o polgono de frecuencia es lo mismo, y es una grfica de


las frecuencias relativas en el lado de las "y" y la marca de clase en el eje de las "x",
pero en este tipo de diagramas no es necesario especificar los ejes y se unen los
puntos que te salgan por medio de una lnea (Fernndez et. al, 2002).

2.1.3 Medidas Algebraicas de las distribuciones de frecuencia

Medidas de exactitud:

Segn Rohlf y Sokal (2002) Exactitud; el trmino denota el grado de coincidencia del
resultado de una medicin con el valor verdadero o aceptado de la misma y se expresa en
funcin del error. La exactitud implica una comparacin con el valor verdadero o aceptado
como tal.
A continuacin se muestra una sntesis de los mtodos para evaluar la exactitud.

METODOS ABSOLUTOS PARA EXPRESAR LA EXACTITUD.

Error Absoluto, E: Diferencia entre el valor observado Xi y el valor aceptado, XA.

E = Xi - XA

El signo asociado con el error es tan importante como el mismo valor numrico, dado que el
analista necesita conocer si el efecto del error ha provocado un aumento o disminucin del
resultado o resultados.

Cuando no se conoce el valor aceptado, se toma como tal, la media de una serie de datos.

METODOS RELATIVOS PARA EXPRESAR LA EXACTITUD.

Error Relativo: Se puede expresar como el porcentaje o tanto por mil, relacionndolo con la
media o la mediana.

Error relativo de la media = (Xi - X)*100 / X

Error relativo de la mediana M = (Xi - M) *100 / M

Medidas de precisin:

Segn Rohlf y Sokal (2002)

METODOS ABSOLUTOS PARA EXPRESAR LA PRECISION

*Intervalo, rango o recorrido.


*Desviacin respecto a la media.
*Desviacin respecto a la mediana.
*Desviacin estndar.
*Varianza.
Despus de la media aritmtica la desviacin estndar es la medida de dispersin ms
utilizada; se define como la raz cuadrada de la suma de los cuadrados de la desviacin de
cada uno de los datos respecto al promedio o media aritmtica dividido por el nmero de
datos o tamao de la muestra (N) menos uno:

Tratamiento de los datos analticos

S = Tratamiento de los datos analticos


(Xi - X )2

N-1

Donde: Xi = Valor obtenido


X = Promedio de los valores obtenidos

N = Nmero de mediciones.

2.2 Distribuciones ms comunes:

Distribucin normal:

La distribucin normal (en ocasiones llamada distribucin gaussiana) es la distribucin


continua que se utiliza ms comnmente en estadstica.

En la distribucin normal, uno puede calcular la probabilidad de que varios valores


ocurran dentro de ciertos rangos o intervalos. Sin embargo, la probabilidad exacta de un
valor particular dentro de una distribucin continua, como la distribucin normal, es cero.
Esta propiedad distingue a las variables continuas, que son medidas, de las variables
discretas, las cuales son contadas (Rohlf y Sokal; 2002)

Distribucin binomial

En el clculo de probabilidades y en teora estadstica, la distribucin binomial es la que


mejor caracteriza y facilita el conocimiento de las distribuciones de variables discretas. En
ciertos experimentos, su foco central est orientado a la ocurrencia de un evento con una
cierta probabilidad que es constante e independiente a travs de varios ensayos del
experimento (Rohlf y Sokal; 2002)

Ejemplo:

En una tienda la llegada de un cliente y determinar si compra o no es un experimento de


Bernoulli donde xito = E = {un cliente no compra}. Se sabe que el 75% de los clientes que
llegan hacen una compra, entonces P(E) = = 0.75. Si la tienda llegan 20 clientes, este
sera un experimento binomial donde n=20 y = 0.75

Distribucin Poisson:

La distribucin de Poisson describe la probabilidad como un acontecimiento fortuito


ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad de
un acontecimiento ocurre es muy pequea, pero el nmero de intentos es muy grande,
entonces el evento actual ocurre algunas veces (Rohlf y Sokal; 2002).

Distribucion Hipergeometrica:

Segn (Quesada y Garca, 1988) Supongamos una caja la cual contenga N piezas, de las
cuales D son defectuosas y N - D aceptables, y consideremos el experimento aleatorio
consistente en la extraccin simultanea de n piezas de la citada caja. Este procedimiento
de seleccin equivale a ir sacando pieza a pieza de la caja, hasta completar el numero n,
sin devolverlas a ella (muestreo sin remplazamiento).

Si denotamos por X el nmero de piezas defectuosas en la muestra de extensin n,


sabemos que
2.3 Relacin entre dos variables:

Correlacin:

El coeficiente de correlacin de Pearson es el calculado para variables continuas,

si tenemos dos variables X e Y, la correlacin entre ellas se la nombra r (X, Y), o

Solo r y est dada por (Garca y Quesada; 1988):

r = (xi-x) (yi-y ) Donde xi e yi son los valores de X e Y para el

(xi-x)2(yi-y)2 individuo i

-1 +1

Correlacin perfecta negativa Correlacin perfecta positiva

Fuerte Fuerte

Negativa positiva

-0.5 +0.5

dbil dbil

Negativa positiva

Sin correlacin

Coeficiente de correlacin:

Segn Garca y Quesada; (1988); Dado dos variables, la correlacin permite hacer
estimaciones del valor de una de ellas conociendo el valor de la otra variable.

Los coeficientes de correlacin son medidas que indican la situacin relativa de los
mismos sucesos respecto a las dos variables, es decir, son la expresin numrica que nos
indica el grado de relacin existente entre las 2 variables y en qu medida se relacionan.
Son nmeros que varan entre los lmites +1 y -1. Su magnitud indica el grado de
asociacin entre las variables; el valor r = 0 indica que no existe relacin entre las
variables; los valores (1 son indicadores de una correlacin perfecta positiva (al crecer o
decrecer X, crece o decrece Y) o negativa (Al crecer o decrecer X, decrece o crece Y).

Para interpretar el coeficiente de correlacin utilizamos la siguiente escala:

Valor Significado

Correlacin negativa grande y


-1
perfecta

-0,9 a -0,99 Correlacin negativa muy alta

-0,7 a -0,89 Correlacin negativa alta

-0,4 a -0,69 Correlacin negativa moderada

-0,2 a -0,39 Correlacin negativa baja

-0,01 a -0,19 Correlacin negativa muy baja


0 Correlacin nula

0,01 a 0,19 Correlacin positiva muy baja

0,2 a 0,39 Correlacin positiva baja

0,4 a 0,69 Correlacin positiva moderada

0,7 a 0,89 Correlacin positiva alta

0,9 a 0,99 Correlacin positiva muy alta

Correlacin positiva grande y


1
perfecta

Regresin: lineal y Curvilnea

regresin lineal:

El objeto de un anlisis de regresin es investigar la relacin estadstica que existe entre una
variable dependiente (Y) y una o ms variables independientes ( ,...). Para poder
realizar esta investigacin, se debe postular una relacin funcional entre las variables.
Debido a su simplicidad analtica, la forma funcional que ms se utiliza en la prctica es la
relacin lineal. Cuando solo existe una variable independiente, esto se reduce a una lnea
recta:

donde los coeficientes b0 y b1 son parmetros que definen la posicin e inclinacin de la


recta. (Ntese que hemos usado el smbolo especial para representar el valor
de Y calculado por la recta. Como veremos, el valor real de Y rara vez coincide
exactamente con el valor calculado, por lo que es importante hacer esta distincin.)

El parmetro b0, conocido como la "ordenada en el origen," nos indica cunto


es Y cuando X = 0. El parmetro b1, conocido como la "pendiente," nos indica cunto
aumenta Y por cada aumento de una unidad en X. Nuestro problema consiste en obtener
estimaciones de estos coeficientes a partir de una muestra de observaciones sobre las
variables Y y X. En el anlisis de regresin, estas estimaciones se obtienen por medio del
mtodo de mnimos cuadrados (Garca y Quesada; 1988).

Regresin curvilnea:
Cuando las variables X e Y se relacionan segn una lnea curva, se habla de regresin no
lineal o curvilnea. Es una funcin de segundo grado la que se ajusta lo suficiente a la
situacin real dada.

La expresin general de un polinomio de segundo grado es:

Y=a+bX+cX2

Donde a, b y c son los parmetros.

El problema consiste, por tanto, en determinar dichos parmetros para una distribucin
dada. Se seguir para ello, un razonamiento y la utilizacin de las ecuaciones normales de
Gauss. Las ecuaciones normales son:

Y = na + b X + C X2 (1)

X Y = a X + b X2 + c x 3 (2)

X2Y = a X2 + b X3 + c x 4 (3)

Para lo cual se necesita elaborar el cuadro con cada una de las variables que aparecen en
las ecuaciones normales y los resultados obtenidos en este sustituirlos en ellas para
encontrar los valores de las constantes.

Para encontrar los valores de las constantes utilizaremos matrices.

Una matriz es un conjunto de elementos de cualquier naturaleza aunque, en general,


suelen ser nmeros ordenados en filas y columnas.

Se llama matriz de orden m x n a un conjunto rectangular de elementos aij dispuestos


en m filas y en n columnas. El orden de una matriz tambin se denomina dimensin o
tamao, siendo m y n nmeros naturales Segn (Garca y Quesada; 1988).

2.4 Pruebas Estadsticas


A la hora de contrastar nuestra hiptesis nula de partida, varios factores van a determinar la
prueba estadstica que utilizaremos y se refieren al nmero, tipo y distribucin de las
variables y a la forma en que se eligi a los sujetos del estudio.

2.4.1 Pruebas paramtricas

Son recomendables su utilizacin en muestras de mayor tamao (mayor a 11 casos),

a. diseos experimentales
Un diseo experimental es un esquema de cmo realizar un experimento. El objetivo
fundamental de los diseos experimentales radica en el determinar si existe una
diferencia significativa entre los diferentes tratamiento del experimento y en caso que
la respuesta es afirmativa, cual sera la magnitud de esta diferencia. Una segunda meta
de los diseos experimentales es verificar la existencia de una tendencia derivado del
anlisis de los datos del experimento. La diferencia principal entre los diseos
experimentales radica en la forma en que se agrupan o clasifican las unidades
experimentales.[ CITATION Bad07 \l 10250 ]

o diseo completamente al azar


Este diseo es el ms sencillo, eficiente y se origina por la asignacin aleatoria de
los tratamientos a un conjunto de unidades experimentales previamente
determinado. [ CITATION Bad07 \l 10250 ]
La aleatorizacin completa puede ser apropiada cuando:
a) donde el material experimental es homogneo;
b) donde es probable que una parte apreciable de las unidades se destruyan
c) en experimentos pequeos en donde la mayor precisin de otros diseos no
compensa la prdida de grados de libertad del error.

EJEMPLO

Se probaron 4 mtodos para contabilizar microorganismos en 12 muestras


homogneas obtenidas en el laboratorio. Los muestras se asignan aleatoriamente a los
mtodos de contabilizacion (tres muestras para cada mtodo). La aleatorizacin evita la
asignacin sistemtica de los muestras con mayor cantidad microbiana a algn
mtodo. Supongamos que al final del perodo las muestras toman una prueba
estandarizada, alcanzando los resultados de la siguiente [ CITATION Bad07 \l 10250 ]

Tabla. Datos de mtodos de contabilizacin

Hiptesis nula: No hay diferencia significativa entre los mtodos.


hiptesis alterna HA: Si hay diferencia significativa entre los mtodo.
Paso 1. La suma total de cuadrados es
(Xij X..)2 = (110 113)2 + (109 113)2 + (105 113)2 + (111 113)2 + ..... + (125
113)2 = 428
Paso 2. La suma de cuadrados entre grupos es
n (Xi. X..)2 = 3[(108 113)2 + (112- 113)2 + (110 113)2 + (122 113)2] = 348
Paso 3. La suma de cuadrados dentro de los grupos se obtiene ms fcilmente
como la diferencia entre la suma total de cuadrados y la suma de cuadrados entre
los grupos ( (Xij Xi.)2 = 428 348 = 80)

Anlisis de varianza

Fcal > F tabulada entonces la Ho se rechaza, y por tanto, hay diferencia significativa
entre los mtodos de enseanza.

o Diseo de bloques completamente al azar


toma en cuenta los tres principios bsicos de la experimentacin: repeticin,
aleatorizacin y control local. En este diseo las unidades experimentales se
distribuyen en grupos homogneos llamado bloque.[ CITATION Eze14 \l 10250 ]
es conveniente cuando se logra determinar un gradiente de variabilidad en un
sentido, que est influyendo sobre los tratamientos.[ CITATION Eze14 \l 10250 ]

EJEMPLO

En un experimento se evalu la aplicacin de tratamientos para el control de


coliformes y E. coli. Fueron utilizados los siguientes tratamientos: [ CITATION Eze14 \l
10250 ]
A. Testigo absoluto (sin aplicacin).
B. lagunaje facultativo
C. fotocatlisis heterogenea on TiO2
D. tatamiento quimico PTQ NaCIO
E. hipoclorito de sodio 5%
F. luz ultravioleta 16 mWs/cm2
Los tratamientos fueron analizados en un diseo bloques al azar con cinco
repeticiones. La variable de respuesta medida fue el nmero de coliformes y E. coli
vivos por unidad experimental. Los datos obtenidos se presentan en la siguiente tabla:
coliformes

Conclusin: los tratamientos evaluados para eliminar o reducir la cantidad de


coliformes y E.coli producen diferentes efectos en el control.

o Diseo cuadrado latino


un cuadrado latino para p factores, o sea, un cuadrado latino de tamao pp, es un
cuadrado que contiene p fila y p columnas. Cada una de las p2 celdas contiene una
de las p letras que corresponden a un tratamiento, y cada letra aparece una sola
vez en cada fila y en cada columna, de tal manera que cualquier comparacin de
tratamientos no se vea afectada por las diferencias existentes entre hileras o entre
columnas. [ CITATION Eze14 \l 10250 ]

EJEMPLO

Un ingeniero industrial est investigando el efecto que tienen cuatro mtodos de


ensamblaje (A, B, C y D) sobre el tiempo de ensamblaje de un producto alimenticio. Se
seleccionaron cuatro operadores para realizar el estudio. Por otra parte, el ingeniero
sabe que cada mtodo de ensamblaje produce fatiga, por lo que el tiempo que se tarda
en el ltimo ensamblaje puede ser mayor que en el primero, independientemente del
mtodo. En otras palabras, se produce un patrn en el tiempo de ensamblaje. Para
controlar esta posible fuente de variacin (variabilidad), el ingeniero utiliz el diseo
cuadrado latino, que aparece a continuacin: [ CITATION Eze14 \l 10250 ]
Cuadrado Latino Reducido: Es aquel en el cual la primera hilera y la primera columna estn
dispuestas en orden alfabtico. Procedimiento para la aleatorizacin
a. Seleccionar un cuadrado latino reducido
b. Permutar hileras aleatoriamente
c. Permutar columnas aleatoriamente
d. Asignar los tratamientos a las letras al azar.

Los incisos b,c,d se pueden realizar usando una tabla de nmeros aleatorios, o bien a
travs de un simple sorteo. A continuacin se muestra un ejemplo de aleatorizacin para
un cuadrado latino de tamao 5 5.

En un experimento sobre evaluacin de variedades de caa de azcar realizado en Brasil,


citado por Gomes,FP (2000), fueron usadas cinco variedades: Co-290 (A), Co-421 (B), Co-419
(C), POJ-2878 (D) y CP-3613 (E), dispuestas en un cuadrado latino de tamao 5 5. Las
producciones de caa en kilogramos por parcela son dadas en la tabla siguiente:
De acuerdo con los resultados del anlisis de varianza, se concluye que las variedades
presentan efectos diferenciados en cuanto a la produccin de caa de azcar, por lo tanto se
recomienda efectuar el respectivo anlisis post-anova.
Prueba de comparacin mltiple de medias de acuerdo al criterio de Tukey
o Experimentos factoriales
son aquellos en los que se estudia simultneamente el efecto de dos o ms
factores, y donde los tratamientos se forman por la combinacin de los diferentes
niveles de cada uno de los factores. Los experimentos factoriales en si no
constituyen un diseo experimental si no que ellos deben ser llevados en
cualquiera de los diseos tal como: completamente al azar, bloques al azar,
cuadrado latino, etc[ CITATION Eze14 \l 10250 ]

De dos niveles 2k: se estudia un numero k de factores (por ejemplo 4 ), los factores
se toman en dos niveles (-) y (+), el numero de observaciones es 2x2x2x2 =16 = 2 4,
se reduce el numero de observaciones. [ CITATION Ter17 \l 10250 ]

Ejemplo: Redimiendo proceso qumico


Factor 1: Temperatura 40C (-) 60C (+)
Factor 2: Presin 1 Atm (-) 2 Atm (+)
Factor 3: Catalizador Si (+) No (-)
Factor 4: Concentracin 40% (-) 60% (+)

23 = posibles combinaciones son 8, y


con n replicaciones se obtiene un
total de 8n observaciones, se puede
usar la siguiente matriz:

25 = 5 Factores a dos niveles.


[ CITATION Ter17 \l 10250 ]
= 32 observaciones.
= 5 Factores, 10 interacciones de segundo orden.
= 16 interacciones de orden superior

26 = 6 Factores a dos niveles.[ CITATION Ter17 \l 10250 ]


= 64 observaciones.
= 6 Factores, 15 interacciones de segundo orden.
= 42 interacciones de orden superior

Ejemplo

Una empresa embotelladora de refrescos interesada en obtener alturas de llenado mas


uniformes en la botellas que se fabrican en su proceso de manufactura. El ingenierio
del proceso puede controlar tres variables durante el proceso de llenado: l porcentaje
de carbonatacin (A), la presin de operacin en el llenador (B) y las botellas por
minuto o rapidez de lnea (C). es sencillo controlar la presin y la rapidez, pero el
porcentaje de carbonatacin es mas difcil de controlar debido a que vara con la
temperatura. Se puede controlar la caronatacion en tres niveles : 10, 12 y 14 por
ciento. Dos niveles para la prsion (25 y 30 psi) y para rapidez de lnea ( 200 y 250 bpm).
[ CITATION DOU04 \l 10250 ]
La suma de cuadrados de los efectos principales:

Para la carbonatacin- rapidez A x C

Para la presin rapidez B x C


Interaccin de los 3 factores A x B x C

Por ultimo

Anlisis de varianza

Supondremos que solo se usa dos rplicas de tal modo que el experimento es un diseo
factorial 23. Al utilizar los totales bajos las combinaciones de los tratamientos; los efectos
de los factores pueden estimarse:[ CITATION DOU04 \l 10250 ]
El experimentos de altura de llenado

Los efectos mas grandes para la cabonatacion (A = 3.00), la presion (B = 2.25), la


velocidad (C = 1.75) y la interseccin carbonatcion presin (AB = 0.75).
La CONTRIBUCION PORCENTUAL de cada uno de los trminos del modelo a la
suma de cuadrados total.

La interaccin AB es significativa con un nivel de aproximacin de 10 % por lo tanto


existe una ligera interaccin entre carbonizacin y la presin. [ CITATION DOU04 \l
10250 ]

prueba t student
Condiciones: Se utiliza en muestras pequeas de 30 o menos elementos. La desviacin
estndar de la poblacin no se conoce.[ CITATION Cca12 \l 10250 ]
Caractersticas: La distribucin t-Student es menor en la media y ms alta en los extremos
que una distribucin normal. Tiene mayor parte de su rea en los extremos que la
distribucin normal.[ CITATION Cca12 \l 10250 ]

Prueba de Duncan
es otra prueba para determinar la diferencia entre pares de medias despus que se ha
rechazado la hiptesis nula en el anlisis de varianza.[ CITATION Ger03 \l 10250 ]
Este procedimiento emplea los valores de la tabla T-9 y consiste en calcular varios "rangos"
(Duncan los llama rangos significativos mnimos) dados por la frmula:

donde p toma valores entre 2 y K (K es el nmero de tratamientos), d se obtiene de la


tabla T-9 y el CMError se obtiene de la tabla de ANDEVA respectiva.[ CITATION Ger03 \l
10250 ]

Ejemplo

Se realiz un experimento para determinar la cantidad (en gramos) de grasa absorbida por
48 donas usando ocho tipos diferentes de grasas (aceites y mantecas). Las medias para los
ocho tratamientos se muestran a continuacin:
se usaron seis "donas" en cada tipo de grasa y se obtuvo un cuadrado medio del error de
141.6, los grados de libertad del error son 48 - 8 =40.
Seleccionando a = 0.05 para este ejemplo, los rangos de Duncan son:

Los valores 3.300, 3.266,..., 2.858 se obtuvieron de la tabla de Duncan para a = 0.05, 2 p 8 y
40 grados de libertad.

El siguiente paso es ordenar las medias en orden creciente para establecer los "rangos".

El rango entre las medias mxima y mnima se compara con D8, esto es ,

entonces existe diferencia significativa entre las grasas 4 y 7.

El prximo paso es comparar subconjuntos de siete medias con el rango D7.


, entonces
, entonces
Como los dos exceden el rango D7 se subdividen estos dos subconjuntos en conjuntos de seis
medias.
, entonces
, entonces
, entonces
Nuevamente stos exceden D6, entonces stos se subdividen en subconjuntos de cinco medias

, entonces
, entonces
, entonces
, entonces

Como las medias para las grasas 3, 2, 6 y 1 estn incluidos en el conjunto 43261 que fue no
significativo, los rangos de las medias en el subconjunto 3261 no se comparan
con D4; solamente los rangos de las medias en el subconjunto 2615 se comparan con D4; por lo
tanto,
, entonces
Los otros subconjuntos de cuatro medias (3,2,6,1) y (6,1,5,3) no se comparan con D4 porque ya
fueron declarados no significativos en los conjuntos de cinco medias. Por lo tanto, el proceso
termina.
Los resultados se muestran grficamente en la siguiente figura, donde las medias que estn
debajo de una lnea no son significativamente diferentes.

El investigador puede concluir que las cantidades absorbidas usando las grasas 4 y 3 son
significativamente mayores que las 5, 8 y 7, y que la 2 es significativamente mayor que las 8 y 7
y las dems grasas no son significativamente diferentes en relacin con la cantidad absorbida.
[ CITATION Ger03 \l 10250 ]
RANGOS SIGNIFICATIVOS DE DUNCAN
Prueba de Tukey

La prueba de Diferencia Significativa Honesta (DSH) de Tukey, al igual que la DSM, slo se
debe usar despus que se ha rechazado la hiptesis nula en el anlisis de varianza y
cuando todos los tamaos de muestra son iguales; pero a diferencia de la DSM emplea el

valor . En lugar de . Este valor q se obtiene de la tabla, para el nivel


de significancia a , el nmero de tratamientos K y los grados de libertad del error,
entonces:[ CITATION Ger03 \l 10250 ]
Ejemplo

Una empresa tiene cuatro plantas y sabe que la planta A satisface los requisitos impuestos por
el gobierno para el control de desechos de fabricacin, pero quisiera determinar cul es la
situacin de las otras tres. Para el efecto se toman cinco muestras de los lquidos residuales de
cada una de las plantas y se determina la cantidad de contaminantes. Los resultados del
experimento aparecen en la siguiente tabla.

Cantidad de contaminantes para cuatro plantas de una empresa.

Conclusin: Puesto que Fcalc > Fteor se rechaza H0, y se concluye que hay diferencia significativa
(al 5%) entre las cantidades medias de contaminantes para las diferentes plantas.
Los valores absolutos de las diferencias entre se muestran en la siguiente
tabla.

Como se puede observar, las diferencias que exceden (DSH) estn entre las medias ,
y , por lo tanto, slo difieren las medias m 4 de m 1 y de m 3.

Es importante tener presente que la prueba DSH slo se debe emplear cuando el ANDEVA ha
conducido al rechazo de H0. Si las muestras no son del mismo tamao no se debe usar DSH.
[ CITATION Ger03 \l 10250 ]
2.4.2 Pruebas no paramtricas

Se hace aconsejable utilizar cuando el nmero de muestras son pequeas o muestras de


cualquier tamao que no se cumplan los criterios de aplicabilidad de las pruebas paramtricas.
Otra circunstancia que influye en la popularidad creciente de estas pruebas es que los
conocimientos estadsticos para comprenderlas son mnimos. Tambin se les denomina prueba
de distribucin libre. [ CITATION RAF07 \l 10250 ]

Prueba para K muestras independientes: Las pruebas para muestras independientes comparan
las variables de dos o ms series de casos; permiten suponer que las muestras provienen de la
misma poblacin.

La prueba de Kruskal-Wallis o de H es una extensin de la de U de Mann-Whitney. Su aplicacin


asume:

1) Que los datos provienen de un grupo aleatorio de observaciones


2) Que la variable dependiente es, al menos, ordinal
3) Que la variable independiente es nominal, con ms de dos niveles
4) Que las observaciones son independientes dentro de cada grupo y entre los grupos
5) Que no hay medidas repetidas o categoras de respuestas mltiples
6) que es similar la forma en que la distribucin de la variable dependiente dentro de cada uno
de los grupos, excepto por la posible diferencia de las medidas de tendencia central en al
menos uno de estos grupos. Se utiliza cuando la variable independiente tiene ms de dos
grupos y la variable dependiente es cuantitativa continua [ CITATION Man03 \l 10250 ].

Ejemplo

Se est interesado en el aceptacin de yogurt con bifidobacterias en nios


entre 2 y 4 aos. Para ello, prepara un experimento con 22 nios y los
asigna aleatoriamente a los dos grupos experimentales y a un grupo
control. Despus de 15 das de tratamiento obtuvo los resultados que
aparecen en la tabla.Hay evidencia para concluir que existen diferencias
significativas entre los tratamientos con un nivel de confianza del 99%?

Hiptesis: H0: Las tres poblaciones son iguales.


H1: Las tres poblaciones difieren.

A = 5; B = 8 y C = 9, es decir, 22 observaciones independientes.

calcualndo el valor etadistico


T= 2,3 luego Ho no se rechaza ya que

La prueba de la mediana est indicada cuando la variable independiente es


categrica y la variable dependiente tiene, al menos, un nivel de medida de
tipo ordinal, aunque sta habitualmente es cuantitativa continua, y se
desea investigar diferencias entre dos o ms grupos con relacin a su
mediana, sea porque no cumplen las condiciones de normalidad para usar
el promedio como medida de tendencia central o porque la variable es
cuantitativa discreta. Se define como mediana al valor que en una serie
ordenada de datos deja por debajo de ella a la mitad de los valores y la
otra mitad por arriba de ella. [ CITATION Man03 \l 10250 ]
Cuando, a priori, hay un ordenamiento natural (ascendente o descendente)
de las poblaciones, la prueba de Jonckheere-Terpstra es ms poderosa.
[ CITATION Man03 \l 10250 ]

Prueba para K muestras relacionadas: Las pruebas para varias muestras


relacionadas comparan las distribuciones de dos o ms variables. Hay tres
pruebas disponibles para comparar las distribuciones de varias muestras
relacionadas.

Prueba de Friedman. Es una extensin de la prueba de Wilcoxon para


incluir datos registrados en ms de dos periodos de tiempo o grupos de
tres o ms sujetos pareados, con un sujeto de cada grupo que ha sido
asignado aleatoriamente a una de las tres o ms condiciones. La prueba
examina los rangos de los datos generados en cada periodo de tiempo para
determinar si las variables comparten la misma distribucin continua de su
origen. Es especialmente til cuando la variable dependiente es continua
pero su distribucin se encuentra sesgada. [ CITATION Man03 \l 10250 ].

Estadstico de contraste

Ejemplo

Un nutricionista est interesado en comprobar si la ingesta constante de un tipo de


alimento procesado modifican o se mantienen constantes los pesos de personas
adultas entre los 37, 38 y 39 aos de edad. Con este fin, selecciona una muestra
aleatoria de 10 personas y mide su peso el primer mes y vuelve a realizar el registro a
los dos meses siguientes Los resultados obtenidos han sido las siguientes:
Edad 1 2 3 4 5 6 7 8 9 1
0
37 70 81 74 65 80 90 68 7 6 8
1 2 8
38 78 80 79 71 82 91 69 7 6 9
5 2 5
39 77 83 81 69 84 93 69 7 6 9
9 4 3

Deacuerdo a estos datos cual es la conclusin a un nivel de significancia de 0.05%

Solucin:

Hiptesis: H0: Las poblaciones son iguales

H1: Las poblaciones son distintas.

Muestra: n observaciones dependientes.

Ordenamos las puntuaciones obtenidas por cada persona en las tres condiciones y
obtenemos la siguiente tabla:

Edad 1 2 3 4 5 6 7 8 9 1 Oj
0
37 1 2 1 1 1 1 1 1 1. 1 11.
5 5
38 3 1 2 3 2 2 2.5 2 1. 3 22
5
39 2 3 3 2 3 3 2.5 3 3 2 26.
5
Aplicando el valos del estadstico de contraste:

F= 11,85

Prueba W de Kendall. Se interpreta como el coeficiente de


concordancia, que es una medida de acuerdo entre los rangos. Cada
caso es una base o rango, y cada variable se considera un artculo o
persona a juzgar. Su valor final est comprendido entre 0 (ningn
acuerdo) y 1 (acuerdo completo). [ CITATION Man03 \l 10250 ]
Q de Cochran. prueba la hiptesis de que varias variables dicotmicas
que estn relacionadas entre s, tienen el mismo promedio. En
observaciones mltiples las variables son medidas en el mismo
individuo o en individuos pareados. Tiene la ventaja de examinar
cambios en las variables categricas. [ CITATION Man03 \l 10250 ]

Bibliografa

Badii, M. J. (2007). Diseos experimentales e investigacin cientfica. Mxico (ISSN


1665-9627) : InnOvaciOnes de NegOciOs .

CACERES, R. A. (2007). ESTADISTICA APLICADA A LAS CIENCIAS DE LA SALUD. DIAZ DE


SANTOS.

Ccanto, D. F. (2012). Distribucin t-Student para una muestra.

Delgado, G. (2003). GRAN AURORA BOREAL I I, 2001. Recuperado el 08 de 04 de 2017,


de PRUEBAS DE DIFERENCIA DE MEDIAS O DE COMPARACIONES MLTIPLES:
http://colposfesz.galeon.com/disenos/teoria/cap13bmj/cap13bmj.htm

Fernndez, S.; Cordero, J.; Crdoba, A. 2002. ESTADISTICA DESCRPTIVA. 2da edicin.
ed. esic. Madrid. PP. 83.
Garcia, A.; Quezada, V.1988. Lecciones de clculo y probabilidades. ed. Daz de santos
S.A. madrid.pp 103

Manuel Gmez-Gmez, C. D.-B.-F. ( mar- abr2003). Sinopsis de pruebas estadsticas no


parametricas. cuando usarlas. revista mexicana de pediatria, 99.

MONTGOMERY, D. C. (2004). DISEO Y ANALISIS DE EXPERIMENTOS. MEXICO D.F.:


EDITORIAL LIMUSA S.A de CV. GRUPO NORIEGA EDITORES.

Ramrez, E. A. (2014). DISEO Y ANLISIS DE EXPERIMENTOS. GUATEMALA.

Salinas, J.; Miranda, F. 2010. Estadistica general.

Villagarca, T. (s.f.). Diseos factoriales a dos niveles. Recuperado el 06 de 04 de 2017,


de
http://www.est.uc3m.es/esp/nueva_docencia/leganes/ing_industrial/estadistica_II/do
c_grupo1/archivos/Disenios%20a%20dos%20niveles.pdf

Das könnte Ihnen auch gefallen