Beruflich Dokumente
Kultur Dokumente
CONFIABILIDAD
Ningún instrumento psicométrico puede considerarse de valor a menos que sea una medida
consistente, o confiable. En consecuencia, una de las primeras cosas que será necesario
determinar acerca de una prueba de elaboración reciente es si resulta lo suficientemente
confiable como para medir lo que fue diseñada para medir. A diferencia de la
inestabilidad, la falta de confiabilidad es resultado de errores de medición producidos por
estados internos temporales, como la baja motivación o la falta de disposición, o de
condiciones externas como un ambiente de prueba incómodo o con distracciones.
Teoría clásica de la confiabilidad
También se asume en la teoría clásica de los tests que la varianza de las puntuaciones
observadas de un grupo de personas es igual a la varianza de sus puntuaciones reales más la
varianza debida a los errores no sistemáticos de medición Como la varianza de las
calificaciones reales no puede calcularse de manera directa, la confiabilidad se estima
analizando los efectos de variaciones en las condiciones de la administración y el contenido
de la prueba en las calificaciones observadas.
Coeficiente test-retest
Se calcula un coeficiente test-retest para determinar si un instrumento mide de manera
consistente de una ocasión a otra. Este coeficiente, conocido también como coeficiente de
estabilidad, se encuentra correlacionando las calificaciones obtenidas por un grupo de
personas en una aplicación con sus puntuaciones en la segunda aplicación de la
prueba. Como resultado, la magnitud de un coeficiente de confiabilidad test-retest tiende a
ser mayor cuando el intervalo entre la prueba inicial y el retest es corto que cuando es
largo .
Coeficiente de formas paralelas
Como es obvio, esto afecta sus respuestas en la segunda aplicación, un hecho que por sí
mismo no cambia el coeficiente de confiabilidad si todos recuerdan igual cantidad. Sin
embargo, por lo regular algunas personas recuerdan más del material de la prueba que
otras, ocasionando que la correlación entre el test y el retest sea menos que perfecta. Lo que
parece necesitarse para superar esta fuente de error es una forma paralela del
instrumento, esto es, una que conste de reactivos similares pero no de los mismos
reactivos. Entonces puede calcularse como índice de confiabilidad un coeficiente de formas
paralelas, también conocido como coeficiente de equivalencia.
Coeficientes de consistencia interna
Por esta razón se elaboró un método menos directo de tomar en cuenta los efectos de
diferentes muestras de los reactivos de una prueba sobre la confiabilidad. En este enfoque
simplificado de la consistencia interna una sola prueba se considera compuesta por dos
partes que miden la misma cosa.
2𝑟𝑜𝑒
𝑟11 =
1 + 𝑟𝑜𝑒
Método de Kuder-Richardson.
Una prueba puede dividirse de muchas formas diferentes en dos mitades que contengan
igual número de reactivos. Bajo ciertas condiciones, la media de todos los coeficientes de
división por mitades puede estimarse mediante una de las siguientes fórmulas:
Coeficiente alfa
𝒌 (𝟏 − ∑ 𝒔𝟐𝒊 /𝒔𝟐𝒊
∝=
𝒌−𝟏
𝑚𝑟
11
𝑟𝑚𝑚 =1+(𝑚−1)𝑟
11
Resolver la fórmula 5.8 para marroja la siguiente fórmula para determinar cuántas veces
más extensa debe ser una prueba de confiabilidad r11 a fin de obtener una confiabilidad
deseada (r11):
𝑟𝑚𝑚(1−𝑟11 )
𝑚=
𝑟11(1−𝑟𝑚𝑚)
VALIDEZ
De manera tradicional, la validez se ha definido como el grado en que una prueba mide lo
que
está diseñada para medir. Una desventaja de esta definición es la implicación de que una
prueba
sólo tiene una validez, la cual supuestamente es establecida por un solo estudio para
determinar
si la prueba mide lo que se supone debe medir. En realidad, una prueba puede tener muchas
clases de validez, dependiendo de los propósitos específicos para los cuales fue diseñada, la
población
objetivo, las condiciones en que se aplica y el método para determinar la validez.
De Contenido
La validez de contenido atañe a si éste produce un rango de respuestas que son
representativas del dominio entero o universo de habilidades, entendimientos y otras
conductas que supuestamente debe medir la
prueba. Se supone que las respuestas a la muestra de reactivos de una prueba bien diseñada
son
indicativas de lo que serían las respuestas al universo entero de conductas de interés.
Validez con relación a criterio
Sin embargo, de manera tradicional, el término validez con relación a criterio hace
referencia a procedimientos en los cuales las calificaciones en la prueba de un grupo de
personas
se comparan con las puntuaciones, clasificaciones u otras medidas de desempeño.
Siempre que se dispone de una medida de criterio en el momento de la prueba puede
determinarse la validez concurrente del instrumento. Cuando las calificaciones en el criterio
no están disponibles sino hasta
cierto tiempo después de que se aplicó la prueba, se enfatiza la validez predictiva de la
prueba.