Sie sind auf Seite 1von 9

Criterios para seleccionar una prueba estadística

Raymundo

Una investigación bien planificada debe incluir en su diseño referencias precisas acerca de las técnicas
estadísticas que se utilizan en el análisis de los datos.

El análisis estadístico es el procedimiento objetivo por medio del cual se puede aceptar o rechazar un
conjunto de datos como confirmatorios de una hipótesis, conocido el riesgo que se corre -en función de la
probabilidad- al tomar tal decisión. En las últimas décadas, el desarrollo de las pruebas estadísticas se ha
incrementado a tal grado que en la actualidad se cuenta con varias pruebas alternativas, las cuales se pueden
usar para casi todo diseño experimental, de modo que el investigador se encuentra ante el dilema de
seleccionar la más apropiada y económica, para las preguntas que, mediante la investigación, desea
contestar.

Ante esa situación, es necesario tener una base racional, por medio de la cual se seleccione la prueba más
apropiada. Esta selección constituye el punto crítico del análisis estadístico.

En la selección de una prueba estadística, se deben aplicar los criterios siguientes:

1. Tipo de escala.

2. Hipótesis.

3. Potencia y eficiencia de la prueba.

4. Características muestrales.

5. Tendencia rectilínea o curvilínea del fenómeno.

Tipo de escala

En las observaciones de una investigación se puede dar una medición que en este campo consiste en asignar
números a objetos y eventos de acuerdo con reglas de la lógica aceptables.

El sistema numérico es una creación altamente lógica, que ofrece múltiples posibilidades, para
manifestaciones también de carácter lógico. Si se puede, de manera legítima, asignar números al describir
características, objetos y eventos, será factible operar con ellos en todos sus modos permisibles y, de esas
operaciones, derivar conclusiones aplicables a los fenómenos observados y medidos. Entonces, se justifica
describir cosas reales por medio de números, siempre y cuando exista un grado de isomorfismo (semejanza
de propiedades) entre las cosas reales y el sistema numérico, es decir, ciertas propiedades de los números
deben tener paralelismo con los fenómenos observados, para que confiadamente se pueda asignar los
números.
Tres propiedades fundamentales de los números permiten su aplicación en el campo de la investigación
científica: identidad, ordinalidad y aditividad.

 Identidad

Cada número sólo es igual a sí mismo, de manera que ningún otro es igual a él, es decir, posee identidad y,

por lo tanto, a cualquier objeto o evento diferenciable de los demás, que tenga identidad, se le podrá aplicar

un número. Este carácter de identidad de los números de origen a la escala nominal, que es un método para

identificar cualitativamente los distintos objetos y eventos, y resulta obvio que no se le puede dar ningún

significado cuantitativo, por ejemplo: si en un modelo experimental se cuenta una serie de clases, en las

cuales se consignan sus frecuencias, éstas revelan un conjunto de cada clase.

Grupo de 200 niños con y sin estrabismo.

Bajo el contexto de la tabla anterior, una muestra de 200 individuos en edad infantil se ha clasificado en dos

grupos por sexo (masculino y femenino) y por la presencia o ausencia de estrabismo. Como punto de partida,

la operación de escalamiento consiste en que, a partir de una clase dada, se forman subclases que se

excluyen mutuamente. La única relación implicada es la de equivalencia, esto es, los miembros de cualquier

subclase deben ser equivalentes en la propiedad de medida. A su vez, la relación de equivalencia es reflexiva,

simétrica y transitiva.

Por otro lado, las frecuencias informan de conjuntos de niños o serie de clases con una categoría e identidad,

que dan una medida de las observaciones y son los valores sujetos a operaciones aritméticas. En estas

condiciones, se puede contrastar hipótesis de la distribución de los casos, mediante la aplicación de pruebas

estadísticas no paramétricas del tipo de prueba binomial, ji cuadrada y McNemar. Todas estas pruebas son

apropiadas para datos nominales, pues revelan las frecuencias en las categorías, es decir, en datos

enumerativos.

 Ordinalidad

Además de contar con la propiedad de identidad, las pruebas también tienen un orden o rango siempre mayor

que otro, el cual le precede en un continuum ascendente. Los objetos y eventos susceptibles de un

ordenamiento a lo largo de un continuum tienen una escala ordinal.


Las escalas ordinales se emplean frecuentemente en la investigación clínica, en la que el refinamiento

cuantitativo a veces no es posible; por ejemplo: cuando se clasifica una respuesta en pacientes bajo los

términos sin cambio, mejorado, curado, esto indica un rango de orden y clasificación.

En conclusión, cabe establecer que mientras las escalas nominales sólo clasifican, las ordinales clasifican y

ordenan, de manera que dan como resultado una serie de clases y categorías mutuamente exclusivas,

llamadas rangos.

 Aditividad

Es importante comprender que los números tienen propiedad aditiva, lo cual quiere decir que la suma de un

número con otro debe dar un tercer número único. Esta propiedad de los números no sólo identifica y ordena,

sino además puede sujetarse a todas las operaciones aritméticas de los números. Las conclusiones de tales

operaciones son válidas para las observaciones y dan lugar a la denominada escala de intervalo.

De las mediciones que en el terreno de la investigación se hayan realizado, puede inferirse que el tipo de

escala (nominal, ordinal e intervalo), de modo que éste es el primer paso para elegir un procedimiento

estadístico: la prueba paramétrica y la no paramétrica.

Mediciones, variables y escala para la elección de la prueba estadística.

Hipótesis

La declaración de la hipótesis alterna (Ha) que se desea analizar debe ser precisa, tan completa como resulte
posible, pues se trata de la aseveración operacional de la hipótesis de investigación por el experimentador.
Debe precisar la dirección que se espera o la ausencia de dirección. Este último punto es fundamental para
decidir si la prueba estadística por elegir será de una o dos colas.

Conjuntamente al proceso anterior, se declara la hipótesis nula (Ho), en la cual simplemente se establece la
ausencia de diferencia y se declara, pare percibir con claridad, que la hipótesis se ajusta a la prueba
estadística. Esto significa que al analizar un conjunto de observaciones, éstas deben sujetarse a un ensayo de
hipótesis nula, condición en la que se basan todas las pruebas estadísticas.

El investigador, al contrastar hipótesis de diferencias y/o correlación, lo establece en función de una hipótesis
alterna (Ha) -punto fundamental de la experimentación-, en contra de la hipótesis nula (Ho). Para decidirse por
una o por la otra, debe proponerse un razonable nivel de significancia, desde antes de aplicar la prueba
estadística.
El nivel de significancia o significación corresponde al límite de confianza, del riesgo de error, que enjuicia el
investigador para aceptar su Ha como verdadera. De manera universal y arbitraria, dicho nivel se ha fijado en
0.05 y 0.01 de error y en 0.95 y 0.99 de certeza para aceptar hipótesis en el área psicológica, por que se
espera un 5% de variación en las mediciones.

En la teoría contemporánea de la decisión estadística, se han tratado de rechazar los procedimientos que
implican adhesión al nivel de significancia comentados, y se favorece el uso de procedimientos en los que las
decisiones se toman en términos de función de pérdida, utilizando principios de minimax; sin embargo,
aunque parece conveniente esta técnica, las posibilidades de aplicación práctica son dudosas en gran parte,
en la investigación psicológica.

Contrariamente a lo anterior, también se debe establecer la zona de rechazo, la cual corresponde al límite de
confianza, en que el investigador rechaza la hipótesis alterna y acepta la hipótesis nula.

Bajo los términos expresados, el investigador debe ser meticuloso al elegir la prueba estadística y al plantear
la hipótesis, el nivel de significancia y la zona de rechazo, en virtud de que es factible cometer dos errores
graves en la decisión estadística:

1. Error del tipo I. Rechazar la hipótesis nula (Ho), siendo verdadera.

2. Error del tipo II. Aceptar la hipótesis nula (Ho), siendo falsa.

Debe quedar claro que en cualquier inferencia estadística existe el peligro de cometer cualquiera de los
errores mencionados y que el investigador equilibre en un nivel óptimo las propiedades de incurrir en uno u
otro tipo de error.

La probabilidad de cometer un error del tipo I está dada por  (alfa), de manera que cuanto mayor sea alfa,
más probable será que Ho se rechace, siendo verdadera; a su vez, el error de tipo II está representado por 
(beta). La siguiente figura muestra una escala de falso a verdadero, donde cero es falso y el valor uno
verdadero.

Entre el 0 y el 1 existen valores


intermedios, mientras que
donde marca 0.95 existe una

Escala de probabilidad. diferencia de 0.05 con respecto


a 1. Este límite corresponde al
nivel de significancia o error
alfa, donde todo valor igual o
meno que 0.05 se acepta Ha.
Por lo tanto, 1 - alfa = beta. Se
dice que en esta circunstancia,
el investigador elige una cola
en la decisión estadística. Por
otra parte, cuando además de
imponer un valor de alfa
razonablemente pequeño para
aceptar Ha, también define un
valor de beta para aceptar Ho,
elige dos colas.

De no decidir entre una u otra


hipótesis, el investigador se
plantea la alternativa de
aumentar el tamaño de la
muestra, para que el fenómeno
se define con más claridad y la
decisión en el contraste de la
hipótesis sea más consistente.

Eficiencia de la prueba

La validez del análisis estadístico depende mucho de la eficacia de la prueba estadística empleada. Se acepta
que una prueba estadística es eficaz cuando tiene una probabilidad muy pequeña de rechazar una hipótesis
verdadera, y una alta probabilidad de rechazar la hipótesis cuando ésta es falsa. En presencia de dos pruebas
estadísticas, cuya probabilidad de rechazar hipótesis falsas sea igual, la selección en principio debe inclinarse
hacia la prueba que tenga la mayor probabilidad de aceptar la hipótesis cuando es verdadera.

La pruebas estadísticas se dividen en dos grandes grupos: paramétricas y no paramétricas. Las primeras son
aquellas cuyo modelo especifica ciertas condiciones o premisas que debe tener la población, de la cual se ha
derivado la muestra bajo análisis; además se requiere expresar las observaciones en escala de intervalo o
tasa. Por otra parte, las pruebas no paramétricas, como su nombre lo indica, no requieren satisfacer esas
condiciones o premisas.
Las pruebas paramétricas son las más eficaces y de uso común en la investigación, como las de comparación
de promedios o prueba t de Student y la de análisis de varianza de Fischer. Ambos procedimientos deben
cumplir las premisas siguientes:

1. Las observaciones deben ser independientes. Al seleccionar un caso, para incluirlo en la muestra, no

se deben prejuiciar las probabilidades de selección de ningún otro caso de la población, asimismo, la

puntuación que se dé a una observación no debe prejuiciar a ninguna otra.

2. Las poblaciones deben provenir de universos cuya distribución siga una curva normal.

3. Las poblaciones deben tener la misma varianza, aunque en casos especiales es suficiente con saber la

tasa de sus varianzas.

4. Las variables consideradas en el estudio deben ser medidas por lo menos en escala de intervalo, para

que sea posible hacer operaciones aritméticas.

Cuando por cualquier razón no se puedan cumplir los requisitos de las pruebas paramétricas, el investigador
podrá recurrir a las llamadas pruebas alternas, como la prueba t de Student-Welch, la F asimilada de Cochran
y la F de Tukey. En ellas no hay exigencia de homogeneidad de varianzas y, auxiliadas por un modelo
matemático de ajuste, se puede obtener una eficacia que es muy cercana a la de las pruebas t de Student y
de análisis de varianza.

Cabe señalar que, conforme menos condiciones o presunciones exige una prueba estadística, en que se basa
su modelo matemático, más generales son sus conclusiones derivadas de su aplicación; sin embargo,
también es menos eficaz para rechazar la influencia del azar, cuando éste no desempeña un papel
importante.

Cuando las observaciones en escala de intervalo no se ajustan a las premisas de las pruebas paramétricas, el
investigador debe estimar la pérdida de eficacia para decidir utilizar los procedimientos no paramétricos, y
transformar aquellas en escalas nominales u ordinales.

Características muestrales

La manera en que influye la muestra para elegir una prueba estadística está en función de su tamaño,
selección y distribución en el diseño experimental.

 Tamaño de la muestra

Anteriormente se habló de que la eficacia de una prueba estadística disminuye cuando se reducen las

condiciones o premisas del modelo; sin embargo, a medida que aumenta el tamaño de la muestra, se

incrementa también la eficacia.

Dicha aseveración generalmente es verdadera para muestras de tamaño definido, pero pueden carecer de

veracidad al compararse dos pruebas estadísticas con muestras de tamaños diferentes, es decir, si con un
tamaño de 30 por cada grupo, una prueba A puede ser más eficaz que la prueba B; en cambio, la prueba B es

más eficaz que A cuando ésta sólo cuenta con un tamaño de muestra igual a 20. En otras palabras, se puede

evitar escoger entre potencias y generalización, para lo cual se selecciona una prueba estadística que tenga

amplia generalización, y luego aumentar su eficacia, comparable a la prueba más útil, incrementando el

tamaño de la muestra.

 Selección de la muestra

Las muestras por analizar pueden ser independientes y dependientes o relacionadas.

o Muestras independientes. Son aquellas cuyo universo de población resulta diferente, lo cual no quiere decir

que provengan de áreas desconocidas, sino que, en términos de estadística, la fenomenología estudiada

puede ser consecuencia de variables distintas y que, por cada variable existente, hay un universo finito o

infinito; por ejemplo, en la Tierra hay un número finito de seres humanos, pero la variable sexo divide en dos

universos diferentes: hombres y mujeres. En el mismo sentido, el estado civil define otros universos distintos,

solteros, casados, divorciados, viudos, etc. De esta manera, se pueden enumerar múltiples variables, que dan

lugar a una infinidad de universos muestrales, de donde es factible elegir muestras independientes.

o Muestras dependientes o relacionadas. Se refieren a las provenientes de un universo muestral, a las que se

aplicará un plan experimental, mediante el cual se espera un cambio, que obligadamente exige un punto de

referencia de no cambio. Para esta condición, el mismo grupo experimental sirve como control o testigo, en el

momento previo al tratamiento. De esta manera, en el análisis de las observaciones existen dos períodos:

antes y después del tratamiento.

 Distribución de la muestra en el diseño experimental

En los diseños experimentales, el número de muestras con que está elaborado el modelo de investigación

tiene singular valor para elegir la prueba estadística, pues las conclusiones a que se llegue al no aplicar la

prueba adecuada darán lugar a falsas interpretaciones del experimento.

En los modelos de investigación, se puede contar con una, dos o muchas muestras. Asimismo, puede tratarse

de muestras independientes o dependientes o relacionadas. Estas características dan un atributo al diseño

experimental, que obliga a analizar los datos de manera diferente, acorde con el modelo estadístico que mejor

se ajuste a contestar las preguntas planteadas por la hipótesis. Para saber si los pacientes han alcanzado una

total remisión de la enfermedad, se atiende a los hallazgos de tiempo de sobrevida y a las alteraciones

clínicas de la patología. Si cuenta con varios tratamientos, se plantea la pregunta de cuál de ellos ha sido más

efectivo. Así, se puede decir que una investigación cuanta con subclases diferentes. Para analizar sus
observaciones y tomar una decisión de la efectividad de los tratamientos, se pueden elegir las pruebas

estadísticas diseñadas para contrastar una hipótesis y para una muestra.

Un ejemplo válido es el de un investigador que trabaja con roedores, para estudiar las características

conductuales de agresividad y la concentración de neurotrasmisores en el sistema nervioso central. El

conjunto de la muestra está constituido por cobayos, ratas y ratones, que representan grupos con tres

gradientes de agresividad. En estas condiciones, el diseño experimental tiene tres muestras independientes.

La elección de la prueba estadística se basará en las dos características y en el tipo de escala de las

mediciones. En el supuesto de que las concentraciones de neurotrasmisores tenga una medición cuantitativa,

una variable continua, una escala de intervalo y una distribución normal, con varianzas homogéneas, la

elección más adecuada será el análisis de varianzas de Fischer de una entrada. Si la decisión del investigador

fuera utilizar la prueba t de Student, diseñada para dos muestras, cometería tres errores graves: a) pérdida de

tiempo, b) las comparaciones serían múltiples, tantas como combinaciones existan (cobayos con ratas,

cobayos con ratones y ratas con ratones), c) el más trascendente, desde el punto de vista de la decisión

estadística: las conclusiones a que se llegue no serán consecuencia de comparaciones independientes, sino

resultarán aisladas y en pequeños pares de grupos de contraste. Es decir, si el investigador supone de

antemano que entre los grupos existe variación en el grado de agresividad, perderá la información que la

variación entre y dentro de grupos le demuestre la existencia de una diferencia verdadera, al no incluir

simultáneamente a los tres grupos.

El ejemplo descrito permite comprender que cuando se analizan simultáneamente diversos grupos de

muestras, las variaciones manifestadas entre los grupos de estudio dan lugar a una diferenciación falsa o

verdadera. Los contrastes parciales que se verifiquen llevan el título de independientes, porque se supone una

simultánea variación o discordancia entre los grupos. Así, se dice que, en estas condiciones, el modelo

experimental conserva ortogonalidad.

A veces, debido al diseño creado por el investigador, se proponen comparaciones con un modelo de

referencia, en el cual se supone la no existencia de modificaciones con respecto a la aplicación de

tratamientos o variables. Estos grupos, también denominados control o testigo, servirán de línea base para

medir los cambios que pudieran presentarse en los otros grupos. De esta manera, la magnitud del cambio

será dependiente de lo que suceda en el control. Este tipo de diseño experimental, debido a las

comparaciones dependientes, ha perdido ortogonalidad. (Con mediciones de intervalo, se tiene la prueba de

Tukey.)

Tendencia rectilínea o curvilínea del fenómeno


Cuando la hipótesis resulta probar la asociación o correlación de variables, es importante conocer la linealidad
del fenómeno. Si es rectilíneo y tiene una escala de intervalo, la aplicación del coeficiente de correlación de
Pearson parece adecuada; pero si este mismo procedimiento se aplica a un fenómeno curvilíneo -aún cuando
exista una verdadera asociación-, dará lugar a aceptar hipótesis de no asociación.

Un fenómeno curvilíneo puede tornarse en rectilíneo, mediante transformaciones matemáticas (logaritmos,


función recíproca, seno, coseno, etc.) y así aplicar la correlación de Pearson.

Si se desconoce la linealidad, se deberá utilizar la prueba de análisis de covarianza para determinar la función
matemática más acorde con el fenómeno estudiado.

Das könnte Ihnen auch gefallen