Sie sind auf Seite 1von 26

1 METODOLOGA Y DISEO EXPERIMENTAL.

CONCEPTOS Y
DEFINICIONES

1.1 DEFINICIONES
El experimento es solamente experiencia cuidadosamente planeada con antelacin y diseada
para conformar una base segura para nuevo conocimiento.

Fisher, R. A. (1990) (1925, 1935, 1956). Statistical methods, experimental design and scientific
inference: a re-issueof Statistical Method. Oxford: Oxford University Press.

1.1.1 Definicin de diseo experimental de Roger E. Kirk.


Un diseo experimental identifica las variables independientes, dependientes y molestas (o de
ruido) e indica el modo en que llevar a cabo los aspectos de aleatorizacin y anlisis estadstico.

Kirk, R. E. (2013). Experimental design. Procedures for the behavioral sciences. Thousand Oaks
(CA): Sage.

El diseo de experimentos implica varias actividades relacionadas:

1. Formulacin de una hiptesis estadstica relevante para la hiptesis cientfica


2. Determinacin de:
- Las condiciones experimentales que han de implantarse
- La medida que hay que registrar
- Las condiciones de ruido que deben controlarse
3. Especificacin de:
- El nmero de sujetos necesarios
- La poblacin de la que deben muestrearse
- El procedimiento de asignacin de sujetos a condiciones
4. Determinacin del anlisis estadstico que ha de realizarse

1.2 VARIABLES
1.2.1 Variable independiente o factor
- Cualquier supuesto acontecimiento causal bajo investigacin
- Variable independiente >> V. de tratamiento >> Factor
- Tratamiento >> Nivel de tratamiento >> Nivel de un factor
- Es til distinguir, porque tiene consecuencias en el anlisis, entre:
o Cuantitativas
o Cualitativas

VARIABLE INDEPENDIENTE CUANTITATIVA

- Sus niveles de tratamiento son cantidades


- Suelen elegirse niveles igualmente espaciados (por ejemplo, 12, 18, 24, 30 horas sin
dormir o 0, 25, 50, 75 fichas policiales)
- Aunque eso depende de varias consideraciones
- Una de las ms importantes tiene que ver con el modelo de anlisis:
o Fijo
o Aleatorio

VARIABLE INDEPENDIENTE CUALITATIVA

- Sus niveles de tratamiento son tipos o clases y no cantidades


- Suelen elegirse por intereses especficos del investigador
o Control, programa Delacato y programa Stanford de mejora de habilidades de
lectura
o Recuerdo libre, palabras de recuerdo mezcladas, presentadas antes

1.2.2 Variable dependiente


- Medida que se usa para evaluar los efectos de la V.I.
- Variable dependiente >> V. de respuesta >> V. resultado
- Su eleccin depende de los intereses del investigador
- Y de su conocimiento del campo de investigacin
- En su eleccin se consideran diferentes aspectos:
o Su fiabilidad
o Su sensibilidad
o Su distribucin (en relacin con los supuestos de anlisis)

VARIABLE INDEPENDIENTE VARIABLE DEPENDIENTE

- Woodworth, R. S. (1938). Experimental Psychology. Nueva York: Henry Holt & Co.
- Aparicin primera de los conceptos de VI y VD
- Winston & Blais (1996).

1.2.3 Variables molestas (nuisance)


- Fuentes de variacin no deseadas que afectan a la V.D.
- Se les ha llamado extraas, irrelevantes, perturbadoras, ruido
- Amenazan el xito del estudio de dos formas fundamentales:
o Confundiendo sus efectos con los de la V.I. (Sesgos)
o Incrementando la variabilidad del fenmeno que se mide (Varianza de error)
- Distintas estrategias de control para cada caso

1.3 CONTROL
1.3.1 Mtodos de control
ESTRATEGIAS GENERALES DE CONTROL

- Mantener las variables constantes para todos los sujetos (control por constancia de
condiciones)
- Asignar sujetos al azar a las condiciones experimentales (control por aleatorizacin)
- Incluir las variables como factores o bloques en el experimento (control por diseo)
- Medir las variables y controlar su efecto (control estadstico anlisis de covarianza)

ESTRATEGIAS USUALES DE CONTROL

- Procedimiento simple ciego (Sujetos)


- Procedimiento doble ciego (Sujetos y experimentadores)
- Procedimiento ciego parcial (el experimentador no sabe hasta administrar el
tratamiento)
- Engao
- Experimento disfrazado (experimentacin discreta)
- Experimentadores mltiples
- Interrogatorio (debriefing)
- Grupos control de expectativas del experimentador
- Experimento no relacionado (se separa temporalmente la V.I. de la V.D.)
- Grupo quasi-control (idntico al experimental, pero sin tratamiento)
- Control acoplado

1.4 ANLISIS ESTADSTICO


1.4.1 Fases
FASE EXPLORATORIA

- Se calculan las medidas de tendencia central, de variabilidad y de distribucin


- Se estudian grficas univariadas de los datos:
o Grficas de tallo y hojas
o Grficas de caja
o Grficas de densidad
o Grficas cuantil-cuantil
- Se estudian, en su caso, grficas multivariadas de los datos:
o Grficas dispersin
o Grficas de contorno
o Grficas de contorno relleno
o Grficas de densidad en 3 dimensiones
o Grficas Bagplot

FASE INFERENCIAL

- Previamente a todo se determina la potencia a priori del estudio


o La magnitud de error asumible (Tipo I y Tipo II)
o Los tamaos de efecto que se desea detectar
o El tamao de la muestra a utilizar
- Posteriormente:
o Se estiman los parmetros de la poblacin
o Se comprueban hiptesis sobre esos parmetros
o Se calculan los tamaos de efecto hallados
2 DISEOS EXPERIMENTALES: VISIN GENERAL

2.1 DISEOS CLSICOS


2.1.1 Un factor

2.1.2 Un factor con pre-test

2.1.3 Dos factores

2.2 VARIACIONES SOBRE LOS DISEOS CLSICOS


2.2.1 Varios pre- o post-tests
2.3 ALGUNOS EJEMPLOS
2.3.1 Un diseo de dos grupos

2.3.2 Un diseo de tres grupos

2.3.3 Un diseo factorial 2x2


2.3.4 Varios pre- o post- tests
2.4 MODELOS DE DATOS DE DISEOS CLSICOS
MODELO DE DATOS DE UN DISEO DE GRUPOS

MODELO DE DATOS DE UN DISEO DE BLOQUES

MODELO DE DATOS DE UN DISEO FACTORIAL

2.5 DISEOS
2.5.1 Diseos entre sujetos de un factor
DOS GRUPOS INDEPENDIENTES
DOS GRUPOS DEPENDIENTES

PRE-TEST POST-TEST DE UN SOLO GRUPO


TRES GRUPOS INDEPENDIENTES

BLOQUES AL AZAR CON TRES TRATAMIENTOS

CUADRADO LATINO
SOLOMON
2.5.2 Diseos entre sujetos de dos factores
FACTORIAL 2X2
EJEMPLO DE UN FACTORIAL 3X2

Anlisis y modelo de un factorial 3x2


FACTORIAL DE BLOQUES

EJEMPLO DE UN FACTORIAL DE BLOQUES

Anlisis y modelo de un factorial de bloques


2.5.3 Diseos factoriales especiales
DISEO MIXTO DE DOS FACTORES

EJEMPLO DE UN FACTORIAL MIXTO 3 (INTER) X 2 (INTRA)


Anlisis y modelo de un factorial mixto 3 (inter) x 2 (intra)

COMPARACIN ENTRE UN FACTORIAL Y UN JERRQUICO


3 DISTRIBUCIONES DE PROBABILIDAD

3.1 DISTRIBUCIONES DE PROBABILIDAD


3.1.1 Introduccin
- No estamos interesados en los resultados de un nico experimento
- Las probabilidades de los resultados posibles se basan en un modelo estadstico
o Conjunto de supuestos acerca de cmo se generan las respuestas
o Que puede usarse para calcular las probabilidades
- Al que nos referimos como distribucin de probabilidad

3.1.2 Muestreo aleatorio y variables aleatorias


MUESTREO ALEATORIO

- En un experimento, las observaciones se consideran una muestra de una poblacin de


observaciones
- Tratamos de que la muestra sea representativa de esa poblacin
- El muestreo aleatorio permite que la probabilidad de cada observacin sea la misma
para todas ellas
- Aunque sabemos que las muestras arrojarn resultados distintos unas de otras

VARIABLES ALEATORIAS

- Los estadsticos de las muestras son variables


- Toman diferentes valores en diferentes muestras
- Se llaman variables aleatorias a aquellas cuyos valores dependen del azar
o Y dependen del azar los resultados obtenidos por muestreo aleatorio

3.1.3 Variables aleatorias discretas (la dama que prueba el t)


- Algunas variables solo pueden tomar un nmero limitado de valores
o Por ejemplo, un tem de un test medido en una escala Likert
o O el propio test completo
o O el nmero de respuestas correctas en una tarea dada
o O el nmero de palabras que se recuerdan en una lista, etc.

LADY TASTING TEA

- Preparamos 8 tazas
o 4 en las que hemos puesto primero el t
o 4 en las que hemos puesto primero la leche
- Dispuestas aleatoriamente
- Cuntas ha de identificar para convencernos?

8x7x6x5 = 1682 (posibilidades de elegir una primera taza, una segunda, una tercera y una
cuarta)

4x3x2x1 = 24 (formas de ordenar 4 tazas)


PRUEBA EXACTA DE FISHER

La HO = La seora no tiene la habilidad supuesta

Resultado: Si HO es cierta >> 1/70, (o 16/70)

Al utilizar la aleatorizacin como procedimiento, podemos usar el azar como criterio

CUANDO NO TENEMOS LA DISTRIBUCIN DE REFERENCIA

- Suponemos que los datos siguen alguna distribucin conocida: como la t, la normal, la
F, la X2, etc.

3.1.4 Variables aleatorias continuas


- Aquellas que pueden tomar infinitos valores entre dos valores dados
- En la prctica acabamos usando valores discretos de una precisin variable
- Aunque al utilizar distribuciones continuas se obtienen excelentes aproximaciones
para datos discretos
- En general, la probabilidad de ocurrencia de un valor exacto es cero en una
distribucin continua
- En su lugar hablamos de la densidad de probabilidad de un valor
- Grficamente, es la altura de la distribucin en ese valor
- En cambio, si tiene sentido hablar de la probabilidad de observar un valor en un
intervalo dado: el rea bajo la curva de la distribucin de la variable aleatoria nos da
esa probabilidad

COMPRACIN DE DISTRIBUCIONES T Y LA NORMAL


Distribucin t
3.2 VNCULO ENTRE LA TEORA DE LA PROBABILIDAD Y LOS DATOS
- Las distribuciones de probabilidad son entidades tericas
- Pero son tiles al menos por 3 razones:
o Se usan para calcular la probabilidad de varios posibles resultados
experimentales (Lady tasting tea)
o Identifican los resultados ms probables del experimento
o Nos proporcionan informacin crtica para evaluar los resultados del
experimento
- Punto de vista objetivo frecuentista, o a posteriori
- El conocido como teorema de Bernouilli:
o La frecuencia relativa de un suceso S1 en una muestra puede usarse para
estimar p (S1)
o La precisin de la estimacin aumenta cuando aumenta el nmero de
observaciones
- Esto nos proporciona el vnculo entre la teora de la probabilidad y los datos
4 INFERENCIA ESTADSTICA

4.1 SIR RONALD AYLMER FISHER (1890 1962)

RECORDEMOS

- El teorema de Bayes permite calcular la probabilidad p (H|D) de una hiptesis H dados


unos datos D, tambin conocida como probabilidad inversa
- Presupone el conocimiento de una distribucin de probabilidad previa del conjunto de
hiptesis
- Fisher no estaba satisfecho con este enfoque inductivo
- Prefiri estimar la distribucin de probabilidad a partir de las frecuencias de los datos,
p (D|H)
- As comenz lo que desde 1935 se conoce como prueba de la hiptesis nula o prueba
de significacin

4.1.1 La inferencia segn Fisher


- Se confronta una HO con observaciones, para saber si se desvan lo suficiente de HO
para que podamos concluir que esta no es plausible
- Tenemos diferencias entre datos provenientes de pares de sujetos, o de grupos
- Son muy discordantes esos datos con nuestra hiptesis nula?
- Se evala con el estadstico t:

Contraste de hiptesis t para una diferencia entre medias:

- Nivel de significacin: estimacin del error de los datos


- A qu nivel de significacin decimos rechazar HO?
- Esa pregunta no es parte del proceso ni de la lgica del contraste, sino de la pragmtica
- Fisher originalmente considero el 5% o el 1% como convenios convenientes
- Posteriormente, manifest que ningn investigador mantiene un nivel de significacin
fijo ao tras ao y en todas las circunstancias para rechazar hiptesis
- Un problema de criterio, no de tcnica. La subjetividad es parte del proceso

4.2 JERZI NEYMAN (1894 - 1981) Y EGON PEARSON

4.2.1 La inferencia segn Neyman y Pearson


- Ya en los aos 20 criticaron a Fisher por no haber asentado bases lgicas para su PSHO
- Intentaron proporcionar al mtodo de Fisher una base lgica, reemplazando la
hiptesis nula nica de este con varias hiptesis rivales
- Para ellos, Fisher haba definido nicamente un tipo de error para la inferencia
estadstica: rechazar HO cuando es verdadera, al que llamaron, error del primer tipo
- Su teora implicaba que exista otro tipo de error, el error del segundo tipo: no
rechazar HO cuando es falsa
- En su forma ms simple, segn la teora de N-P existen dos hiptesis, y se supone que
una de las dos es cierta
- El propsito de la observacin es decidir entre las dos, aceptando una y rechazando
otra
- Si llamamos H1 y H2 a las dos hiptesis, la prueba de H1 contra H2 se define a travs
de un conjunto de observaciones, la as llamada regin de rechazo R
- Si la observacin pertenece a R se rechaza H1 y se acepta H2; y si las observaciones no
pertenecen a R, se acepta H1 y se rechaza H2

Esto define un proceso racional:

o Se identifica la hiptesis ms importante


o Se ajusta sobre ella la probabilidad de un error tipo I pequeo
o Se define R de forma que exista la mxima potencia
- Pensaban que los dos mtodos, el clsico y el suyo, eran matemticamente
equivalentes
- Sir Ronald no lo vea as
- Podan, tal vez, ser procesos matemticamente equivalentes
- Pero eran epistemolgicamente y cientficamente muy distintos
- El proceso de control de calidad
- Consideraban que rechazar una hiptesis no era equivalente a considerarla falsa
- Sino que se deba actuar como si lo fuese
- Interpretacin conductual de la aceptacin y el rechazo de hiptesis
4.3 DIFERENCIAS ENTRE LAS DOS TEORAS
- Para Fisher, la prueba de significacin de la hiptesis nula era un procedimiento
utilizado para la inferencia cientfica
- Y claramente, el procedimiento de Neyman y Pearson no se adapta bien a ese fin
- Para efectuar el anlisis segn N-P debemos incluir, junto con la hiptesis HO de
Fisher, otra H1 que indique el efecto d que esperamos que tenga el tratamiento
- Estadsticamente, H1 es una hiptesis que afirma que las observaciones se distribuyen
normalmente con media = d y desviacin tpica igual a la de la H0

4.4 INTERPRETACIONES INCORRECTAS DE LA PSHO


4.4.1 Las 5 principales
P < 0.05

- Hay una probabilidad menor que el 5 % de que los resultados se deban al azar
- Hay una probabilidad menor que el 5% de que al decidir rechazar HO se cometa un
error Tipo I
- La probabilidad de que HO sea verdadera es menor que el 5%
- La probabilidad de que H1 sea verdadera es mayor que el 95%
- La probabilidad de una rplica es superior al 95%

4.4.2 Y otras cuantas ms.


TRAS LA DECISIN SOBRE LA HO

- Un valor p pequeo indica un efecto grande


- El rechazo de HO confirma tanto H1 como la hiptesis de investigacin
correspondiente
- No rechazar HO indica que el efecto es 0
- Al rechazarse HO se confirma la calidad del diseo de investigacin
- De no rechazarse HO, el estudio es un fracaso
- Si un resultado no replica, no podemos tomar la misma decisin entre estudios
- La PSHO es un mtodo objetivo para probar hiptesis
- Con p = 0.049 se rechaza HO; con p = 0.051 no se rechaza HO
- La PSHO es un mtodo robusto para probar hiptesis

NIVEL DE CONFIANZA Y TAMAO DEL EFECTO


Estadsticamente significativo, grande e importante

4.5 POTENCIA Y TAMAOS DE EFECTO


4.5.1 Estudios sobre la potencia

4.5.1.1 La aportacin de J. Cohen


Cohen, J. (1962). The statistical power of abnormal-social psychological research: a review,
Journal of Abnormal and Social Psychology 65(3), 145{153.

Cohen, J. (1969). Statistical Power Analysis for the Behavioral Sciences, 1a Ed., Hillsdale:
Lawrence Erlbaum Associates. (2a Ed., 1988).

Sedlmeier, P., & Gigerenzer, G. (1989). Do studies of statistical power have an effect on the
power of studies? Psychological Bulletin, 105, 309-316.

CUIDADO CON LAS NORMAS

- La primera llamada de atencin sobre la escasa potencia estadstica de la mayor parte


de la investigacin en psicologa
- Y el desarrollo de mtodo de fcil aplicacin para estimar la potencia en la
investigacin
- Desarroll unas normas aproximadas para determinar la importancia de los tamaos
de efectos:

(A power primer)
- Cualquiera puede cometer errores con la interpretacin de la PSHO
- Pero tambin con el uso ciego de recetas S, M, L, XL y XXL
- La interpretacin de los tamaos de efecto depende de ms cosas que de las normas
aproximadas de Cohen

EL CLCULO DE LA POTENCIA
- Actualmente, paquetes estadsticos como SAS, SYSTAT, PASS, STATISTICA, R.
- Y pequeos programas especializados: G*Power, Applet Java de Lenth, R2, de Steiger
- Lo importante es que, en todo caso, se realice un anlisis de la potencia a priori
- Cohen realiz anlisis a posteriori para comprobar la potencia realmente obtenida en
diversos estudios
- Pero, ya realizado el estudio, la potencia es simplemente una funcin de los datos del
experimento

4.5.2 Contextos para la estimacin de los tamaos de efecto

4.5.2.1 Unidades significativas de la variable dependiente


- En Medicina frecuentes: presin sangunea, HDL, LDL, etc.
- En Psicologa, infrecuentes
- La mayora, variables fsicas
- No hay unidades naturales de constructos abstractos no fsicos: inteligencia, logro
acadmico o autoconcepto
- Tampoco hay medidas universalmente aceptadas de esos constructos

4.5.2.2 Unidades arbitrarias de la variable dependiente


- Puntuaciones de tests y cuestionarios
- Comparacin de resultados de variables dependientes medidas en escalas distintas
- Respuestas que pueden codificarse con diferentes nmeros (escalas Likert, por
ejemplo)
- Calcular el mismo tamao de efecto estandarizado en cada estudio lleva los resultados
a una escala comn
- Suelen ser tiles en el anlisis de la potencia a priori
- En el meta anlisis
- En las pruebas estadsticas
o Efectos de magnitud trivial y rechazo de HO
o Efectos notables e imposibilidad de rechazo de HO
- Varias familias de tamaos de efecto:
o Diferencia estandarizada entre medias (familia d) (ndices de diferencias
grupales)
o Medidas de asociacin (familia r) (ndices de relacin)
o ndices basados en el caso individual
o Otros ndices
- Todos ellos son ndices adimensionales

4.5.3 Diferencias estandarizadas entre medias

4.5.3.1 d de Cohen?

4.5.4 Proporciones de varianza o fuerza de la asociacin

4.5.4.1 Correlacin biserial puntual

4.5.4.2 Razn de correlacin

Das könnte Ihnen auch gefallen