Sie sind auf Seite 1von 9

Análisis de datos en Psicología II. Pardo y San Martín.

SEGUNDA PARTE: ESTADISTICA INFERENCIAL.

UNIDAD VII. CONTRASTE DE HIPOTESIS.

El objetivo del análisis de datos es el de extraer conclusiones sobre las propiedades de una población a
partir de la información contenida en una muestra procedente de esa población. Ya hemos señalado que
este salto de lo concreto (la muestra) a lo general (la población) se conoce con el nombre de inferencia
estadística.

Existen dos formas básicas de inferencia estadística: la estimación de parámetros y el contraste de hipótesis.
La estimación de parámetros es conocida como el proceso que consiste en asignar a las propiedades
desconocidas de una población las propiedades conocidas de una muestra extraída de esa población.

El contraste de hipótesis es un proceso mediante el cual se trata de comprobar si una afirmación sobre
alguna propiedad poblacional puede ser sostenida a la luz de la información muestral disponible. Puede ser
entendido como un método de toma de decisiones: un contraste de hipótesis también llamado prueba de
significación o prueba estadística; es un procedimiento que nos permite decidir si una proposición acerca de
una población puede ser mantenida o debe ser rechazada.

En la investigación psicológica o de otro tipo, es frecuente encontrarse con problemas de conocimiento


(ciertamente, no todos igual de relevantes) surgidos a partir de conocimientos ya existentes o a partir de la
observación de nuevas situaciones.

Surgido el problema, el paso siguiente consiste en aventurar algún tipo de solución al mismo. Esta solución
provisional suele tomar forma de afirmación directamente verificable (es decir, empíricamente contrastable:
de no ser así, nos moveríamos en el terreno de la especulación y no en el de la ciencia) en la que se
establece de forma operativa el comportamiento de la variable o de las variables involucradas en el
problema. Esa afirmación verificable recibe el nombre de hipótesis científica.

3.1 La lógica del contraste de hipótesis.

1. El primer paso del proceso de verificación de una hipótesis consiste en formular estadísticamente la
hipótesis científica que se desea contrastar: es decir, en transformar la hipótesis científica en hipótesis
estadística. Esto supone que una hipótesis científica puede ser formulada en términos de la forma de una o
varias distribuciones poblacionales o en términos del valor de uno o más parámetros de esa o esas
distribuciones.

2. Formulada la hipótesis estadística, el segundo paso del proceso de verificación consiste en buscar
evidencia empírica relevante capaz de informar sobre si la hipótesis establecida es o no sostenible. Una
hipótesis será compatible con los datos empíricos cuando a partir de ella sea posible deducir o predecir un
resultado muestral (un estadístico) con cierta precisión.

3. La necesidad de trabajar con muestras en lugar de con poblaciones nos obliga a establecer una regla de
decisión en términos de probabilidad. El número de reglas de decisión que podemos establecer en una
situación particular es casi ilimitado. La teoría de la decisión se ha encargado de proporcionarnos unos
cuantos principios elementales que podemos trasladar al contexto del contraste de hipótesis. En general, la
regla de decisión que utilizaremos será una afirmación de este tipo: si el resultado muestral observado es,
suponiendo correcta nuestra hipótesis, muy poco probable, consideraremos que nuestra hipótesis es
incompatible con los datos; por el contrario, si el resultado muestral observado es, suponiendo correcta
nuestra hipótesis, probable, consideraremos que nuestra hipótesis es compatible con los datos.

1
Un contraste de hipótesis es un proceso de decisión en el que una hipótesis formulada en términos
estadísticos es puesta en relación con los datos empíricos para terminar si es o no compatible con ellos.

3.1.1 Las hipótesis estadísticas.

Una hipótesis estadística es una afirmación sobre una o más distribuciones de probabilidad; es decir, sobre
la forma de una o más distribuciones de probabilidad, o sobre el valor de uno o más parámetros de esas
distribuciones. Las hipótesis estadísticas se suelen representar por la letra H seguida de una afirmación que
da contenido a la hipótesis.

Existen varias formas diferentes de expresar estadísticamente una hipótesis científica concreta. El primer
paso en el proceso de verificación de una hipótesis consiste en formular en términos estadísticos la
afirmación contenida en la hipótesis científica que se desea verificar. Todo contraste de hipótesis se basa en
la formulación de dos hipótesis.

1. La hipótesis nula, representada por H0.


2. La hipótesis alternativa representada por H1.

La hipótesis nula H0 es la hipótesis que se somete a contraste. Consiste generalmente en una afirmación
concreta sobre la forma de una distribución de probabilidad o sobre el valor de alguno de los parámetros de
esa distribución.

La hipótesis alternativa H1 es la negación de la nula. H1 incluye todo lo que H0 excluye. Mientras H0 suele
ser una hipótesis exacta (tal cosa es igual a tal otra), H1 suele ser inexacta (tal cosa es distinta, mayor o
menor que tal otra).

Cuando H1 aparece el signo “=”, decimos que el contraste es bilateral o bidireccional. Cuando H1 aparecen
los signos “<” o “>”, decimos que el contraste es unilateral o unidireccional.

Las hipótesis nula y alternativa suelen plantearse como hipótesis rivales. Son hipótesis exhaustivas y
mutuamente exclusivas, lo cual implica que si una es verdadera, la otra es necesariamente falsa.

3.1.2 Los supuestos.

Para que una hipótesis estadística pueda predecir un resultado muestral con cierta exactitud es necesario
que la distribución poblacional con la que se va a trabajar este completamente especificada.

Se llaman hipótesis simples aquellas que especifican por completo las distribuciones poblacionales a las que
hacen referencia. La primera hipótesis define una distribución normal con parámetros conocidos. La segunda
hipótesis permitirá especificar por completo una distribución binomial una vez establecido el tamaño de la
muestra.

Las hipótesis en las que la distribución poblacional no queda completamente especificada reciben el nombre
de compuestas. La primera hipótesis define una distribución normal con media conocida, pero con varianza
desconocida. La segunda hipótesis, referida a una distribución binomial, no define una única distribución
sino muchas diferentes.

Lo ideal, seria poder plantear, siempre, hipótesis nulas simples, porque eso nos permitiría definir con
precisión la distribución poblacional a partir de la cual se efectuarán las predicciones muestrales. Con
frecuencia, la hipótesis nula planteada no será simple, sino compuesta. Lo cual nos obligará a establecer un
conjunto de supuestos que, junto con la hipótesis, permitirán explicar por completo la distribución
poblacional de referencia.

2
3.1.3 El estadístico de contraste.

Un estadístico de contraste es un resultado muestral que cumple la doble condición de 1) proporcionar


información empírica relevante sobre la afirmación propuesta en la hipótesis nula y 2) poseer una
distribución muestral conocida.

1) Para utilizar un resultado muestral como un estadístico de contraste debe ser capaz de detectar
cualquier desviación empírica de la afirmación establecida en la hipótesis nula (H0).
2) La segunda condición que debe cumplir un resultado muestral para poder ser utilizado como
estadístico de contraste es la de poseer una distribución muestral conocida. Un estadístico es una
variable aleatoria y, como tal, tiene su propia función de probabilidad a la que denominamos
distribución muestral. (Es decir, la distribución muestral es la función de probabilidad que tiene el
estadístico). Es precisamente en la distribución muestral del estadístico de contraste en la que nos
vamos a apoyar para tomar una decisión respecto a H0 en términos de probabilidad.

Por lo tanto, una vez planteadas las hipótesis, es necesario seleccionar el estadístico de contraste capaz de
proporcionarnos información relevante sobre ellas y establecer los supuestos necesarios para conseguir
determinar la distribución muestral de ese estadístico. (utilizaremos T para referirnos a un estadístico de
contraste cualquiera).

3.1.4 La regla de decisión.

La regla de decisión es el criterio que vamos a utilizar para decidir si la hipótesis nula planteada debe ser o
no rechazada, se basa en la partición muestral del estadístico de contraste en dos zonas mutuamente
exclusivas: la zona de rechazo y la zona de aceptación.

La zona de rechazo, también llamada zona crítica, es el área de la distribución muestral que corresponde a
los valores del estadístico de contraste que se encuentran tan alejados de la afirmación establecida en H0
que es muy poco probable que ocurran si H0 como se supone, es verdadera. Su probabilidad es a (debe ser
un valor pequeño). Lo llamaremos nivel de significación o nivel de riesgo.

La zona de aceptación es el área de la distribución muestral que corresponde a los valores del estadístico de
contraste próximos a la afirmación establecida en H0. Es, por lo tanto, el área correspondiente a los valores
del estadístico de contraste que es probable que ocurran si H0, como se supone, es verdadera. Su
probabilidad es 1 – a, se denomina nivel de confianza.

La forma de dividir la distribución muestral en zona de rechazo o critica y zona de aceptación depende de si
el contraste es bilateral o unilateral.

En los contrastes bilaterales, la zona critica se encuentra generalmente repartida a partes iguales entre las
dos colas de la distribución muestral. (FIGURA 3.1 DE LA FOTOCOPIA A MODO DE EJEMPLO).

En los contrastes unilaterales, la zona critica se encuentra en una de las dos colas de la distribución
muestral. (FIGURA 3.2 DE LA FOTOCOPIA A MODO DE EJEMPLO).

3.1.5 La decisión.

Planteada la hipótesis, formulados los supuestos, definido el estadístico de contraste y su distribución


muestral y establecida la regla de decisión, el paso siguiente consiste en obtener una muestra aleatoria de
tamaño n, calcular el estadístico de contraste y tomar una decisión. Tal decisión, se toma siempre respecto
de H0 y consiste en rechazarla o mantenerla, de acuerdo con el valor tomado por el estadístico de contraste
y las condiciones establecidas en la regla de decisión: si el estadístico de contraste cae en la zona critica, se
rechaza H0 y si el estadístico de contraste cae en la zona de aceptación se mantiene H0.

3
Si la rechazamos, estamos afirmando que esa hipótesis es falsa, es decir, estamos afirmando, con una
probabilidad a de equivocarnos, que hemos conseguido probar que esa hipótesis es falsa. Por el contrario, si
la mantenemos, no estamos afirmando, ni mucho menos, que hemos probado que esa hipótesis es
verdadera; Simplemente estamos afirmando que no disponemos de evidencia empírica suficiente para
rechazarla y que, por tanto, podemos considerarla compatible con los datos.

Entonces:

Cuando decidimos mantener una hipótesis nula, queremos significar con ello que consideramos
que esa hipótesis es compatible con los datos.

Cuando decidimos rechazar una hipótesis nula, queremos significar con ello que consideramos
probado que esa hipótesis es falsa.

(EJEMPLO DE APLICACIÓN EN EL CUADRO 3.1 DE LA FOTOCOPIA. PAGINA 9)

3.2 Errores de tipo I y II.

Llamaremos error de tipo I al que se comete cuando se decide rechazar una H0 que en realidad es
verdadera. La probabilidad de cometer este error es a (alfa).

Llamaremos error de tipo II al que se comete cuando se decide mantener una H0 que en realidad es falsa. La
probabilidad de cometer ese error es B (beta).

Por lo tanto, 1 - a será la probabilidad de tomar una decisión correcta cuando H0 es verdadera. Y 1 – B será
la probabilidad de tomar una decisión correcta cuando H0 es falsa.

La probabilidad de cometer un error de tipo I con nuestra decisión es una probabilidad conocida, pues el
valor de a lo fija el propio investigador. Sin embargo, la probabilidad de cometer un error de tipo II, es decir
B, es un valor desconocido que, en un contraste concreto, depende de tres factores: 1) la verdadera H1, 2) el
valor de a y 3) el tamaño del error típico de la distribución muestral utilizada para efectuar el contraste.

3.4 Nivel crítico y tamaño del efecto.

Se define el nivel de significación a como la probabilidad de cometer un error de tipo I, es decir, como la
probabilidad de rechazar una hipótesis nula cando en realidad es verdadera. Esa probabilidad a se establece
antes de efectuar el contraste para evitar que influya en la decisión final. Podemos entender el nivel de
significación como el riesgo máximo que estamos dispuestos a asumir al tomar la decisión de rechazar una
hipótesis concreta.

Esto se hace así desde los años 30, pero no está libre de inconvenientes. Dos de ellos son:

1. La decisión sobre H0 puede depender decisivamente del nivel de significación establecido. Podemos
decidir mantener una hipótesis con a = 0,01 y, sin embargo, rechazarla con a = 0,05.
2. Decidir si H0 es o no falsa no proporciona ningún tipo de información sobre el grado en el que la
evidencia muestral se muestra incompatible con esa hipótesis.

En principio, si consideramos que cometer un error de tipo I es muy grave, adoptaremos para a un valor más
pequeño que si consideramos que cometer ese tipo de error no tiene consecuencias graves. Pero
recordemos que, al hacer más pequeño el valor de a, la probabilidad de cometer un error de tipo II (B) se
incrementa automáticamente. Y eso puede llevarnos a, por ejemplo, cometer un error de tipo II por intentar
evitar cometer un error de tipo I.

4
Llamamos nivel crítico y lo representamos por p, al nivel de significación más pequeño al que una hipótesis
nula puede ser rechazada con el estadístico de contraste obtenido.

Podemos definir el nivel critico entonces, como la probabilidad asociada al estadístico de contraste. En un
contraste unilateral, el nivel critico es la probabilidad asociada a los valores mayores (contraste unilateral
derecho) o menores (contraste unilateral izquierdo) que el estadístico de contraste obtenido. En un
contraste bilateral, el nivel critico es la probabilidad asociada a los valores que se encuentran tan alejados
de H0 como, al menos, el estadístico de contraste. Según esto, el nivel critico se obtiene, a diferencia de lo
que ocurre con el nivel de significación, después de efectuar el contraste, es decir, una vez obtenido el
estadístico de contraste.

El tamaño del nivel crítico nos informa sobre el grado de compatibilidad o discrepancia existente entre la
evidencia muestral observada y esa H0.

Decidir si una hipótesis es o no falsa no constituye, en la mayor parte de las situaciones experimentales, un
criterio suficiente para determinar si el experimento realizado contribuye o no de forma significativa al
desarrollo de una teoría o de una línea de investigación. Esto es así porque la decisión a la que se llega en un
contraste de hipótesis sobre la base del grado de discrepancia existente entre la H0 planteada y la evidencia
muestral observada depende directamente del tamaño de la muestra utilizada.

De este modo, es muy importante el concepto de tamaño del efecto y la conveniencia de acompañar la
decisión propia de un contraste de hipótesis con algún índice capaz de proporcionarnos información mas
concreta sobre la decisión tomada.

3.5 Contrastes unilaterales y bilaterales.

Contrastes bilaterales o bidireccionales: las hipótesis formuladas no contienen ninguna predicción sobre la
dirección en la que se puede producir un resultado muestral incompatible con la afirmación establecida en
H0. Lo cual está reflejado en H1 con el signo “=”. En otras palabras, el contraste bilateral sitúa la región de
rechazo en los dos extremos (colas) de la distribución muestral.

Cuando se utiliza la distribución normal o la distribución t de Student en un contraste bilateral, la zona critica
está repartida, generalmente en partes iguales. Entre las dos colas de la distribución muestral. De ahí el
nombre de bilateral.

Contrastes unilaterales o unidireccionales: las hipótesis contienen una predicción concreta sobre la
dirección en la que se puede producir un resultado muestral incompatible con la afirmación establecida en
H0. Lo cual está reflejado en H1, con los signos “<” y “>”. En otras palabras, el contraste unilateral sitúa la
región de rechazo en uno de los dos extremos (colas) de la distribución muestral.

Cuando se utiliza la distribución normal o la distribución t de Student en un contraste unilateral, la zona


crítica está en una de las dos colas de la distribución. De ahí el nombre de unilateral.

Los contrastes unilaterales y bilaterales no poseen la misma potencia. Dada una situación experimental
concreta, si la verdadera H1 se separa de H0 en la dirección de la zona crítica, los contrastes unilaterales son
más potentes que los bilaterales para cualquier valor posible de a. Por el contrario, si la verdadera H1 se
aleja de H0 en dirección contraria a la zona crítica, los contrastes unilaterales son menos potentes que los
bilaterales (en estos casos, la potencia de los contrastes unilaterales no será mayor que a).

5
4.1 Contraste de hipótesis sobre una media.

El contraste de hipótesis sobre una media sirve para tomar decisiones acerca del verdadero valor
poblacional que corresponde a la media de una variable.
Generalmente, si conocemos la desviación típica de una población, también conoceremos la media de esa
población y, por tanto, no necesitaremos hacer ningún tipo de inferencia sobre ella. Por otra parte, si
conociendo ambos parámetros deseamos ver si la media ha cambiado como consecuencia de, por ejemplo,
algún tipo de intervención, lo razonable será suponer que también la varianza habrá podido cambiar y, por
tanto, dejado de ser conocido.

4.2 Contraste de hipótesis sobre dos medias independientes:

El contraste de hipótesis sobre dos medias independientes es una técnica de análisis de datos
frecuentemente utilizada en la investigación empírica. Cuando, por ejemplo, se desea evaluar la eficacia de
algún tratamiento o algún tipo de intervención, se seleccionan aleatoriamente dos grupos de sujetos, a uno
de ellos se le aplica el tratamiento y al otro no; tras esto, se comparan las medias de los dos grupos en la
variable de interés para determinar si difieren o no y, por tanto, si el tratamiento aplicado es o no eficaz.

Del mismo modo que la media muestral nos proporciona la mejor estimación de la media poblacional, la
mejor estimación que podemos obtener sobre la diferencia entre dos medias poblacionales es justamente la
diferencia entre dos medias muestrales.

4.2.1 Suponiendo varianzas iguales.

Raramente la investigación empírica genera situaciones en las que siendo desconocidas las medias
poblacionales, las varianzas poblacionales resulten conocidas. Lo habitual es, que las varianzas poblacionales
sean, al igual que las medias, desconocidas; en cuyo caso el error típico de la distribución muestral será
igualmente desconocido y hará falta estimarlo.

A las varianzas poblacionales iguales se las llama supuesto de homocedasticidad.

4.2.2 Suponiendo varianzas distintas.

Si las varianzas poblacionales no son iguales, carece de sentido obtener una única estimación de estas a
partir de la combinación ponderada de los dos estimadores disponibles (varianza de una muestra, y varianza
de la otra muestra). Más bien, cada uno de ellos deberá ser considerado un estimador de la varianza de su
propia población.

4.3 Contraste de hipótesis sobre dos medias relacionadas.

Hablamos de dos muestras relacionadas cuando un grupo de sujetos es evaluado dos veces. Por ejemplo: si
queremos comparar el rendimiento de un grupo de sujetos con problemas de aprendizaje en dos tareas de
habilidad diferentes, podemos evaluar el rendimiento de cada sujeto en ambas tareas y comparar los
promedios obtenidos en ellas; tendremos dos muestras de puntuaciones relacionadas porque ambas
pertenecen a los mismos sujetos: los sujetos menos afectados por problemas de aprendizaje tenderán a
puntuar alto en ambas tareas, mientras que los sujetos más afectados tenderán a puntuar bajo en ambas
tareas.

Las medidas repetidas no son la única forma (aunque tal vez si la más frecuente) de generar muestras
relacionadas. También tenemos dos muestras relacionadas cuando en lugar de medir a los mismos sujetos
en dos ocasiones, utilizamos pares de sujetos. Por ejemplo: en un estudio sobre relaciones maritales,
podrían interesarnos preguntar a los miembros de una muestra de matrimonios por su grado de satisfacción
marital a fin de evaluar si los maridos se sienten, en promedio, más satisfechos o menos que sus esposas.

6
Aquí, a cada individuo solo le tomamos una medida, pero cada matrimonio, como una unidad, contribuye
con un par de puntuaciones. Parece razonable asumir qué si un miembro de una pareja se siente muy
satisfecho con su matrimonio, el otro miembro de la pareja también se sentirá satisfecho y viceversa; por lo
que las puntuaciones de ambas muestras estarán relacionadas.

Muchos diseños experimentales utilizan muestras relacionadas. Y todos ellos tienen una cosa en común: el
conocimiento de una de las puntuaciones de un par nos proporciona alguna información sobre la otra
puntuación del mismo par. Por esta razón utilizamos el termino muestras relacionadas.

4.3.1 Observaciones perdidas.

Al trabajar con muestras relacionadas (más concretamente con medidas repetidas) el sujeto que participa en
el pre-test también lo hace en el post-test. En una situación ideal, dispondremos de un par de puntuaciones
para todos y cada uno de los sujetos participantes en el experimento. Pero, desafortunadamente, es
frecuente que alguno de los sujetos que participan en el pre-test no lo hagan en el post-test. En un
experimento concreto podemos encontrarnos, por ejemplo, con que de los 50 sujetos seleccionados para el
pre-test solo 42 han completado el post-test.

La forma habitual de proceder en estos casos en los que nos encontramos con observaciones perdidas
consiste en eliminar los pares incompletos (es decir, los pares en los que falta una de las dos puntuaciones) y
trabajar con los pares restantes. Si los pares eliminados son proporcionalmente pocos (no más del 10% o del
15%) y la perdida se ha producido de forma aleatoria, la supresión de los pares incompletos puede constituir
un procedimiento simple y eficaz. Si la mera supresión implica una gran pérdida de información, existen
procedimientos alternativos a ella diseñados específicamente para este tipo de situaciones.

11.1 Contraste de hipótesis sobre una proporción.

En psicología, es relativamente frecuente encontrarse con variables dicotómicas, es decir, con variables que
solo pueden tomar dos valores: acierto/error, verdadero/falso, tratados/no tratados, etc. Podemos llamar
de forma genérica, éxito y fracaso a los dos niveles de una variable de este tipo.

Para diseñar contraste de hipótesis sobre una proporción podemos utilizar la distribución binomial o la
distribución normal.

11.2 Contraste de hipótesis sobre dos proporciones.

11.2.1 Dos proporciones independientes.

Ahora, en lugar de medir una variable dicotómica (con dos niveles a los que seguiremos llamando éxito y
fracaso) en una sola población, lo hacemos en dos. Teniendo en cuenta que una proporción no es más que
una media, podemos seguir la lógica ya conocida, vista anteriormente acerca de los contrastes de hipótesis
sobre dos medias independientes, para diseñar contrastes de hipótesis referidos a dos proporciones
independientes.

11.2.2 Dos proporciones relacionadas.

Trabajamos con una variable que solo puede tomar dos valores (variable dicotómica), pero ahora no
disponemos de dos muestras independientes de tamaños n1 y n2, sino una sola muestra de tamaño m en la
que efectuamos dos medidas de la variable.

7
12.1 Introducción.

La prueba x2 de Pearson permite estudiar diferentes aspectos del análisis de datos referido a variables
cualitativas. Esos diferentes aspectos se clasifican en tres: bondad de ajuste, independencia y homogeneidad
o igualdad de proporciones.

Bondad de ajuste: se trabaja con una sola variable y se trata de averiguar si unos datos empíricos concretos
se ajustan o no a una determinada distribución teórica.

Independencia: se estudian dos variables con el objetivo de contrastar si son o no independientes.

Homogeneidad o Igualdad de proporciones: se trabaja también con dos variables, pero poniendo el énfasis
en la distribución condicional de una de ellas para los diferentes niveles de la otra.

12.1.1 Tabla de contingencia.

Cuando se trabaja con variables de índole cualitativa, los datos suelen presentarse en tablas de
contingencia: conjunto organizado de frecuencias clasificadas según uno o más criterios. Cuando una tabla
de contingencia sólo incluye dos variables la llamamos bidimensional; si incluye tres variables hablamos de
tridimensional; etc.

El limite en el número de dimensiones para realizar una tabla, únicamente viene impuesto por el tipo de
situación real que deseemos representar y por el grado de complejidad que estemos dispuestos a abordar
en nuestras interpretaciones.

8
9

Das könnte Ihnen auch gefallen