Sie sind auf Seite 1von 126

FUNDAMENTOS DE INVESTIGACION

01. La investigación científica en psicología


Contenidos

1. 1 La ciencia y el conocimiento científico


1. 1.1 La elaboración de teorías
2. 1.2 Características de las teorías científicas:
3. 1.3 Funciones de las teorías científicas:
4. 1.4 El método científico
2. 2 La investigación científica en Psicología
1. 2.1 Planteamiento del problema y definición de variables
1. 2.1.1 El problema
2. 2.2 Definición, medición y clasificación de las variables
1. 2.2.1 Definición
2. 2.2.2 Medición de variables
3. 2.2.3 Clasificación de variables
3. 2.3 Nivel de medida
1. 2.3.1 Tipos de variables
4. 2.4 Formulación de hipótesis
5. 2.5 Establecimiento de un procedimiento para la recogida de datos
6. 2.6 Selección y descripción de la muestra
7. 2.7 Aparatos y materiales
8. 2.8 Análisis de datos
9. 2.9 Recogida y análisis de los datos: ejemplo de comparación de dos grupos
1. 2.9.1 Pasos del proceso investigador:
10. 2.10 La interpretación de los resultados de la investigación
11. 2.11 Comunicación de los resultados de la hipótesis

La ciencia y el conocimiento científico

Se denomina conocimiento ordinario al conocimiento de la realidad que nos rodea. El


conocimiento científico es el que se adquiere por la aplicación del método científico. La
sistematización del conocimiento científico se realiza a través de elaboración de teorías.

La elaboración de teorías

Siguiendo a Delclaux el objetivo de la ciencia es conocer mejor los fenómenos que


tienen lugar en la naturaleza para explicarlos, predecirlos y controlarlos. El investigador
tiene que observar, recoger y ordenar los datos que tales acontecimientos proporcionan.
Podemos definir la teoría como una agrupación de esquemas conceptuales formados por
conjuntos de hipótesis con los que representamos el conocimiento científico de forma
sistematizada.
1  
 
Una hipótesis científica es un enunciado teórico referido directa o indirectamente a
acontecimientos no sujetos hasta el momento a contrastación empírica y que es
modificable a la luz de nuevos datos. Tienen el objetivo de enunciar aspectos
determinados relacionados con la teoría y de hacer que ésta sea contrastable
empíricamente.

Una ley científica es una hipótesis de amplio alcance explicativo que ha sido
confirmada y que refleja las regularidades de la naturaleza. No todas las hipótesis
confirmadas pasan a ser leyes científicas, deben cumplir tres características: 1) que
expresan regularidades de comportamiento bajo determinadas condiciones, 2) que sean
universales y 3) que establezcan una relación necesaria entre las condiciones
antecedentes y consecuentes de su enunciado.

Los términos primitivos son del lenguaje común o de otras teorías científicas para
describir los fenómenos observados en la naturaleza, provienen de ámbitos externos a la
propia teoría y no es función de la misma definirlos, ya que pertenecen a otras áreas de
conocimiento en las que ya están definidos.

Los constructos o conceptos son términos que pueden aparecer en las teorías, hipótesis
o leyes y que utilizamos para referirnos a variables que no son directamente
observables. Adquirir o generar un constructo consiste en extraer de todos los posibles
ejemplos de naturaleza, las características que tienen en común, lo que redunda en la
mejor organización de nuestro conocimiento.

Un modelo es una representación arbitraria de una parcela de la realidad que sirve para
simular su funcionamiento. Conviene hacer hincapié en el hecho de que la
representación que constituye el modelo es metafórica.

Características de las teorías científicas:

Susceptible de prueba: de ella se derivan hipótesis que pueden ser contrastadas co los
hechos de la naturaleza, para poder determinar si se ajustan o no a ellos.

Relevante: una teoria tiene que ocuparse de aspectos significativos y que supongan un
incremento del conocimiento en alguna parcela concreta de la realidad.

Simple: dadas dos teorias que expliquen lo mismo, debe preferirse la que esté fomulada
en términos más sencillos.

Susceptible de modificación: las teorías deben poder modificarse si aparecen evidencias


en contra de sus predicciones.

Funciones de las teorías científicas:

Sistematizar el conocimiento, estableciendo relaciones lógicas entre entidades antes


inconexas.

Explicar los hechos mediante hipótesis que impliquen las proposiciones que expresar
dichos fenómenos.

2  
 
Incrementar el conocimiento derivando nuevas proposiciones de las premisas.

Reforzar la contrastabilidad de las hipótesis, sometiendo las al control de las demás


hipótesis del sistema teórico.

Orientar la investigación bien sea mediante el planteamiento o en reformulación de


problemas científicos relevantes o sugiriendo la recolección de nuevos datos.

Ofrecer una representación o modelo de un sector de la realidad y un procedimiento


para producir datos nuevos.

El método científico

Características del método científico:

• Tiene una base empírica: es un proceso conjunto de contrastación con los hechos
de la naturaleza al que deben someterse sus enunciados o hipótesis.
• Diversidad de formas: el método puede ser cualitativo o cuantitativo, adoptando
distintas estrategias en función del fenómeno que se estudia.
• Sistematicidad: para que la investigación sea fiable y válida el proceso de
investigación debe ser sistemático y controlado.
• Fiabilidad o replicabilidad: Un estudio debe ser fiable, consistente y replicables
sus métodos, condiciones y resultados.
• Validez: hace referencia tanto a la exactitud de la interpretabilidad de los
resultados (validez interna), como a la generalización de las conclusiones
(validen externa).
• Flexibilidad: el método se adapta al objeto de estudio de las diversas ciencias.

Existen diversas formas del método científico:

• El método inductivo: considera que solo se puede llegar al conocimiento a través


de la experiencia. Observa la realidad para acumular datos, ordenarlos y
establecer a partir d eellos conclusiones o leyes generales aplicables a todo el
conjunto de observaciones.
• El método deductivo: se caracteriza por partir de un conjunto de axiomas o
principios indemostrables a los que se llega por procesos de razonamiento o que
no se apoyan en observaciones empíricas, y por establecer un conjunto de reglas
de procedimiento a partir de las cuales se realizan deducciones lógicas aplicables
a los datos reales. Formulan la teoría y la aplican a los datos.
• El método hipotético-deductivo: utiliza de forma combinada la inducción y la
deducción.

La investigación científica en Psicología

Esta constituye un proceso que se inicia con unos hechos, o con unas ideas, que
constutuyen un problema u objeto de estudio y se pone en marcha con la intención de
hallar una explicación para ellos.

Fases del método hipotético-deductivo:

3  
 
1. Planteamiento del problema u objeto de estudio y definición de variables.
2. Formulación de hipótesis contrastables.
3. Establecimiento de un procedimiento o plan de recogida de datos: selección de
la muestra, aparatos y/o materiales.
4. Análisis de datos.
5. Interpretación de los resultados: discusión y conclusiones.
6. Elaboración del informe de investigación comunicación de resultados.

Estas etapas se corresponden con tres niveles:

1. El nivel teórico conceptual: incluye las fases del planteamiento del problema y
de la formulación de hipótesis contrastables. En este nivel lo que más interesa es
la selección del problema de investigación, los criterios de selección, cómo se
plantea un problema y cómo se hace la revisión bibliográfica sobre el mismo y
cómo se fomulan los objetivos y/o hipótesis del problema de investigación.
2. El nivel teórico metodológico: se vinculan los planteamientos teóricos con la
realidad empírica, en el se seleccionan los métodos o procedimientos para la
recogida de datos relevantes a la hipótesis.
3. El método estadístico analítico: lo constituye el tratamiento estadístico de los
datos obtenidos mediante el diseño correspondiente. Se analizan los datos
describiéndolos, relacionandolos, comprobando hipótesis, estimando
parámetros, etc.

Planteamiento del problema y definición de variables

El problema

La investigación parte siempre de la identificación de un problema al que no se puede


responder con los conocimientos existentes hasta el momento. Se propone una posible
solución que tendrá que ser contrastada a través del diseño de procedimiento, la
recogida y el análisis de datos.

El problema de la investigación suele formularse en términos de pregunta en la que


suelen expresarse cómo se relacionan las variables.

Fuentes de problemas:

• La experiencia.
• Las teorías científicas.
• El conocimiento previo.

Criterios para elegir el problema:

• Su solución debe contribuir a incrementar el cuerpo de conocimientos de la


disciplina.
• El problema debe conducir a nuevos interrogantes e investigaciones posteriores.
• Hay que elegir un problema que se pueda investigar.
• El problema debe ser viable para el investigador.

Definición, medición y clasificación de las variables


4  
 
Definición

Una variable es una característica que puede asumir más de un valor. Los valores
pueden ser numéricos o categóricos. Estos conceptos serían constructos, pero los
consideramos variables cuando los definimos en términos explícitos y determinamos
que indicios son los que nos permiten obtener una medida de ellos. Una constante es
una característica con un solo valor.

Medición de variables

Medir es asignar números, de forma congruente, a los fenómenos observados. La


medición en psicología es la asignación de números a objetos o características, mediante
una serie de reglas, que permiten operativizar la conducta. Pueden distinguirse cuatro
tipos de escalas de medida:

1. Escala nominal: establece relaciones de igualdad-desigualdad.


2. Escala ordinal: los objetos pueden manifestar determinada cracterística en mayor
grado unos que otros. Las transformaciones que admite la escala ordinal son las
que preserven el orden de magnitud, creciente o decreciente, en que los objetos
presentan determinada caracteristica.
3. Escala de intervalo: si además de la posibilidad de evaluar la igualdad-
desigualdad de los objetos y la mayor o menor magnitud que presenten, se puede
contar con alguna unidad de medida, aunque esta sea albitraria, se permitirá
establecer la igualdad o desigualdad de las diferencias entre las manitudes de los
objetos medidos. El punto cero es arbitrario y no significa carencia absoluta de
la característica medida.
4. Escala de razón: el punto cero es absoluto y significa ausencia de la
característica: la distancia, el peso, la velocidad, el tiempo… etc.

Clasificación de variables

Atendiendo a la perspectiva metodológica, según el papel que las variables juegan en la


investigación, tendríamos tres tipos:

1. Variables independientes: también llamadas variables antecedentes, variables


causales, variables predictoras y factores.
2. Variables dependientes: también llamadas variables de la tarea, variables
consecuentes, variables pronostico o variables criterio. Son variables que
queremos predecir utilizando otras variables.
3. Variables extrañas: son las variables ajenas a la relación buscada entre las dos
variables anteriores y que pueden influir en dicha relación. Estas variables se
deben prevenir, detectar y controlar en la investigación.

Llamamos variable independiente a la que el experimentador decida manipular, de


acuerdo con su hipótesis para estudiar sus efectos sobre otra, y denominaremos variable
dependiente a aquello que decida medir para ver los efectos producidos por la
manipulación de la variable independiente, también de acuerdo con su hipótesis.

En conclusión, será variable independiente la que se considere "causa" y variable


dependiente lo que se tome como "efecto" en hipótesis de la que se parte.

5  
 
La variable independiente podrá adoptar distintos niveles, condiciones o tratamientos.

Las variables de selección de valores, son variables que por su propia naturaleza o por
razones éticas no puede ser planteadas directamente por el investigador a su criterio.

Otro criterio de clasificación y denominación de las variables está relacionado con el


nivel de medición que ha sido utilizado y de los valores categóricos numéricos que
pueden proporcionar:

Nivel de medida

Tipos de variables

• Nominal o categórico
• Cualitativas
• Dicotómicas (dos categorías)
• Politómicas (más de dos categorías)
• Ordinal
• Cuasi-cuantitativas

• Intervalo
• Razón
• Cuantitativas
• Discretas (valores enteros)
• Continuas (valores reales)

Formulación de hipótesis

La formulación de hipótesis consiste en ofrecer a partir de los supuestos teóricos una


predicción tentativa del problema objeto de estudio, de forma que se pueda contrastar
con los datos obtenidos. Cumplen una doble función:

1. epistemológica, dado que son los elementos que permiten relacionar las teorías
con los hechos de la naturaleza; y
2. metodológica, porque orienta todo el proceso de la investigación.

Los requisitos para la formulación de la hipótesis son: ser consistente, ser compatible
con otras teorías, leyes, y, por último, ser comprobable empíricamente.

Los principios a tener en cuenta al elegir la hipótesis son la simplicidad y la


generalización. Las hipótesis formuladas en términos generales deberán operativizarse
para ser contrastadas. La operativización es el acto de traducir el constructo en su
manifestación externa, por tanto conlleva definir con exactitud las variables implicadas
y la relación entre ellas, cuáles serán las condiciones antecedentes y las consecuentes.

¿Qué significa contrastar una hipótesis? Es ponerla en relación con los hechos para
determinar si se adecua o no a ellos. Una hipótesis nunca se puede probar, sólo se puede
contrastar. La decisión sobre aceptar o rechazar la hipótesis, se hace con un cierto
margen de error o nivel de confianza, que es una probabilidad. Una hipótesis de tipo

6  
 
causal se suele formular en términos condicionales. Es decir, formulada dentro de uan
estructura gramatical de tipo: "Si…, entonces…"

La hipótesis de trabajo es una forma muy concreta de formular un aspecto del problema,
de manera que pueda ser objeto inmediato de comprobación empírica. Para formular
adecuadamente la hipótesis de trabajo es necesario que exprese la relación que se espera
entre las variables, lo cual, además, exige una correcta formulación de las variables que
intervienen en la situación.

Para la contrastación estadística a partir de hipótesis de trabajo se formulan las hipótesis


estadísticas: hipótesis nula e hipótesis alternativa.

Establecimiento de un procedimiento para la recogida de datos

Hay que planificar la recogida de datos de la investigación. Las conclusiones del estudio
se basarán en dichos datos. El investigador debe decidir qué clase de datos necesita
recoger y con qué instrumentos o técnicas debe recogerlos. Tendrá que tomar decisiones
sobre el procedimiento que mejor se ajuste a sus objetivos dentro de la estrategia
metodológica con la que se desarrolla el estudio. Esto supondrá tomar decisiones sobre
el diseño concreto y sobre las técnicas de recogida de datos.

Se recomienda hacer un estudio piloto que es la aplicación del procedimiento previsto


para la investigación en una pequeña muestra de personas con el objeto de detectar
problemas, inconvenientes o ambigüedades susceptibles de ser corregidas.

Selección y descripción de la muestra

Para elegir una muestra, primero hay que especificar la población del estudio. Luego, se
elegirá la muestra. Si la muestra elegida no representa a la población, nuestros
resultados no serán generalizables a dicha población.

A cada elemento de la muestra se le denomina unidad muestral. Los sujetos


constituyentes de la muestra utilizada en el estudio se denominan participantes.

Es muy importante determinar cuántas unidades muestrales vamos a necesitar en


función de las necesidades del estudio y las técnicas estadísticas previstas y que
procedimiento de muestreo debe seguirse, con el objetivo de que la muestra sea lo más
representativa posible de la población.

Población: conjunto, finito o infinito, de elementos definidos por una o más


características de las que gozan todos los elementos que la componen y sólo ellos.

Censo: estudio de todos los elementos que componen la población.

Muestra: su conjunto o de elementos de una población.

Muestreo: proceso por el cual es elegida la muestra. Este puede ser probabilístico y no
probabilístico.

Indiferencia estadística: generalización de los resultados de la muestra a la población.


7  
 
Aparatos y materiales

Una decisión importante es que la elección de los instrumentos y materiales de la


investigación.

El investigador debe tener buenos conocimientos de psicometría para la selección y


elaboración de los instrumentos de medida.

Deben considerarse las distintas opciones disponibles, sus prestaciones y su coste, así
como la fiabilidad del aparato. Todos estos aspectos habrá que detallarlos en el informe
de investigación.

Análisis de datos

Después de recoger los datos procedemos a su análisis mediante técnicas estadísticas,


con el fin de obtener resultados interpretables en relación con los objetivos de la
investigación.

Lo primero que debemos hacer con los datos es organizarlos y describirlos a través de
puntuaciones resumen, para que resulten manejables y sobre todo más informativos,
esta tarea le corresponde a la estadística descriptiva.

La estadística inferencial nos permite considerar las posibilidades de generalización a la


población desde la muestra.

El estadístico de contraste se plantea como una medida estandarizada de la discrepancia


que hay entre la hipótesis de partida (nula) que se hace sobre la población y el resultado
de la diferencia de medias obtenido en la muestra(los datos de los dos grupos del
estudio).

La elección del estadístico de contraste más adecuado para analizar nuestros datos se
basará en los objetivos del análisis y en la comprobación de que los datos cumplen un
conjunto de supuestos o características:

• El nivel de medida y el tipo de variables: niveles de escala de medida más altos


permiten aplicar técnicas estadísticas más potentes. Debemos tender a medir en
el nivel más alto posible para disponer de más información y más posibilidades
de trabajo con los datos.
• La independencia/dependencia de las observaciones: puntuaciones procedentes
de participantes proporcionan medidas independientes, mientras que dos
medidas de la misma variable proporcionada por los mismos participantes,
tomada en dos momentos o condiciones distintas, son medidas que se consideran
dependientes o relacionadas, ya que la fuente de medidas es la misma, los
mismos individuos.
• Aspectos de la distribución.

En función de que nuestros datos cumplan unos u otros supuestos podemos elegir entre
los llamados contrastes paramétricos (permiten contrastar hipótesis referidas a alguna
parámetro, necesitan supuestos exigentes pero se obtiene mucha información) y no
paramétricos (no necesitan establecer supuestos exigentes).
8  
 
Recogida y análisis de los datos: ejemplo de comparación de dos grupos

Pasos del proceso investigador:

• Planteamiento del problema o idea.


• Formulación de la hipótesis: transformamos la idea en hipótesis de
investigación.
• Procedimiento para la recogida de datos: organizamos y describimos el plan a
seguir para obtener datos en las dos condiciones. Debemos decidir como
seleccionar la muestra, operativizar las condiciones experimentales definiendo
los niveles de la variable independiente y organizarla los grupos; y operativizar
la variable dependiente determinando la tarea a través de la cual recogeremos los
datos y su nivel de medida.
• Formulación de hipótesis estadísticas: para analizar los datos de nuestro estudio
partiendo de la hipótesis de trabajo formulamos la hipótesis nula y la alternativa.
o Hipótesis nula: expresa verbalmente lo contrario que la hipótesis de
trabajo y, si los datos confirman nuestras expectativas, la rechazaremos.
o Hipótesis alternativa: la hipótesis alternativa expresa lo mismo que la de
la investigación.
• Obtención de datos: se llevará a cabo la aplicación de las condiciones
experimentales, cuidando el control de variables extrañas y aplicando el
instrumento de medida para obtener los datos de la variable dependiente.
• Análisis de datos: se contrastan los datos con las hipótesis. Debemos contestar a
la pregunta de si podemos rechazar la hipótesis nula:
o Si resulta que los datos de la muestra empleada son congruentes con la
hipótesis nula contestamos a la pregunta diciendo que no rechazamos la
hipótesis nula.
o Cuando los datos no son congruentes con la hipótesis nula, contestamos
a la pregunta diciendo que rechazamos la hipótesis nula, por lo que
aceptamos que la hipótesis alternativa es, provisionalmente, cierta.

Las pruebas estadísticas nos ayudan a aceptar o rechazar nuestras predicciones. Nos
sirven para detectar la probabilidad de que los resultados obtenidos reflejen un efecto
significativo y nos sean producto del azar. De manera convencional se ha establecido el
95% de confianza como el umbral mínimo para rechazar la hipótesis nula cuando es
falsa.

La interpretación de los resultados de la investigación

Supone interpretar los resultados obtenidos procediendo a su discusión y extrayendo las


conclusiones de la investigación. Hay que vincular los resultados del análisis de los
datos con las hipótesis de la investigación, con las teorías y con los conocimientos ya
existentes y aceptados en el tema. En un primer momento, los resultados se deben
interpretar en cuanto a la magnitud del efecto obtenido y las tendencias o regularidades
observadas. En un segundo momento se deben comparar estos resultados con los
obtenidos por otros investigadores en trabajos semejantes.

No se trata sólo de describir los resultados en unas conclusiones, sino además se


realizará una discusión en la que se pondrán en relación los hallazgos con las hipótesis
formuladas, los modelos teóricos y las investigaciones afines. Se debe señalar las

9  
 
implicaciones y la utilidad de los descubrimientos. También se debe hacer un análisis
crítico de las limitaciones del estudio. El autor deberá acabar la discusión sugiriendo
nuevas vías de investigación, reconociendo las limitaciones de su propio trabajo y
evaluando el alcance de los logros conseguidos. La interpretación a debe terminar con
unas conclusiones claras sobre el trabajo realizado.

Comunicación de los resultados de la hipótesis

Todos los trabajos deben acabar con la redacción de un informe escrito u oral que
comunique lo realizado y las conclusiones obtenidas. Se debe exponer de forma
sintética, clara y comprensible tanto los métodos empleados como los resultados de la
investigación, con el fin de poder recibir una evaluación crítica de la misma y que con
ello se enriquezca el saber científico.

Con respecto a los trabajos escritos, en casi todas las revistas o libros se deben seguir las
normas de redacción de la American Psychological Association (APA 2009),
recomienda que el informe conste de las siguientes partes: resumen o abstract,
introducción, método, análisis y resultados, discusión y conclusiones, referencias
bibliográficas y anexos o apéndices.

02. Estrategias, diseños y técnicas


Contenidos

1. 1 Métodos, diseños, y técnicas: clarificación conceptual


2. 2 La investigación cuantitativa y la investigación cualitativa
3. 3 La estrategia experimental
1. 3.1 Diseños experimentales de comparación de grupos
2. 3.2 Diseños de caso único
3. 3.3 Diseños cuasi experimentales
4. 4 Estrategia no manipulativa (correccional): diseños ex post facto, encuesta y estudios
observacionales
5. 5 La aproximación multimétodo

Métodos, diseños, y técnicas: clarificación conceptual

La Psicología, como disciplina científica, comparte la estrategia general del método


científico, pero desarrolla un conjunto de estrategias o métodos particulares, adecuados
a la naturaleza de su objeto de estudio y a su grado de desarrollo como ciencia.

La diferencia de las distintas estrategias metodológicas de investigación en Psicología y


el análisis de sus posibilidades y limitaciones se pueden realizar desde diversos
criterios. Un primer criterio nos identifica si la investigación se realiza desde un
planteamiento cualitativo o cuantitativo.

En la investigación cuantitativa el elemento diferenciador principal es el grado de


control interno o manipulabilidad aplicable en la investigación, cuyo extremo máximo
10  
 
está representado por la estrategia experimental. En el cualitativo, ese elemento
diferenciador lo constituye el objetivo de la investigación y la naturaleza de los datos
que se han de analizar.

Métodos: todo proceso de investigación adoptando una determinada estrategia general


que condiciona el desarrollo de cada una de sus etapas, en la necesidad implícita de
coherencia interna.

Técnicas: procedimientos para realizar diferentes etapas particulares, que como


dispositivos auxiliares posibilitan la aplicación de los métodos.

Diseños: es la tarea de preparar un esbozo, un boceto de la investigación a través de


decisiones de procedimiento específicas, y se realiza antes de proceder a la recogida
sistemática de los datos. Estas decisiones no tiene sentido de forma aislada, sino
consideradas en su conjunto y en función de unos objetivos de investigación.

Concepto normativo: como conjunto de reglas a seguir por el investigador. La toma de


decisiones en relación a las diferentes fases de la investigación y en función de los
objetivos.

Función denominativa: hace referencia al método empleado, a la inclusión de variables,


a la forma en que se obtienen las medidas, al número de variables implicadas.

La investigación cuantitativa y la investigación cualitativa

La investigación cuantitativa, cuyo principal cometido es tratar de poner a prueba


(confirmar o falsear) hipótesis a partir de ciertos indicadores de las variables
psicológicas. El método que utiliza es el hipotético deductivo. Este método tiene sus
raíces en los principios filosóficos del Positivismo. En este planteamiento se mantiene
que los único objetos dignos de estudio son aquellos observables y medibles. A su vez,
se parte de la premisa de que la realidad es única y concreta y que el científico debe
mantenerse imparcial y objetivo en el proceso de investigación.

Sin embargo, desde otra perspectiva filosófica, el constructivismo,, se supone que la


realidad es una construcción que emerge de la relación entre el sujeto que conoce y el
objeto de conocimiento.

Las posturas constructivista y fenomenológica mantienen que la realidad es una


construcción o interpretación del mundo y, por tanto, plantea que la realidad no es
única. Si la realidad es múltiple, entonces la investigación cualitativa supone que no
existe una verdad absoluta, sino que la verdad está determinada histórica y socialmente.
Estas perspectivas distinguen entre la realidad empírica, objetiva y material, y la
realidad epistémica. La realidad empírica se refiere a las cosas en general, que se asume
que pueden existir con independencia de que se tenga o no conciencia de ellas. La
realidad epistémica, el conocimiento, necesariamente exige la existencia del sujeto, pero
un sujeto que está incorporado en un contexto histórico y cultural con relaciones
sociales concretas, depende de la posición del individuo en dicho contexto.

La herramienta principal del investigador cuantitativo es el experimento, producir


situaciones para buscar las causas o factores intervinientes en los hechos. Utiliza la
11  
 
estadística como una herramienta que le permite asegurar, con un determinado grado de
certeza, afirmaciones sobre el mundo. Se requiere de un diseño altamente estructurado y
planificado para poner a prueba las hipótesis.

La postura cualitativa asume que tanto los hechos como los valores del investigador
influyen en la generación del conocimiento. La subjetividad y la intersubjetividad son
los medios por los cuales se conoce la realidad humana, no son obstáculos para el
conocimiento sino que son las herramientas con las que se genera el conocimiento de la
realidad.

La demanda de la menor intrusión del investigador en el procedimiento de recogida y


análisis de datos, así como el desconocimiento de los participantes de las hipótesis de
investigación, trata de lograr un contacto aséptico con los participantes y garantizar la
objetividad de los datos.

Las posturas contructivista y fenomenológica, por su parte, en tanto que conciben que el
conocimiento es una creación compartida entre el sujeto y el objeto de conocimiento,
asumen que tanto los hechos como los valores del investigador influyen en la
generación del conocimiento. La subjetividad y la inter-subjetividad son los medios por
los cuales se conoce la realidad humana; no son obstáculos para el conocimiento como
asume el positivismo, sino que son las herramientas con las que se genera el
conocimiento.

Los investigadores cualitativos proceden de modo inductivo. La herramienta en este


proceso es el propio investigador. Su objetivo no es establecer leyes, lo que pretenden
es comprender la realidad. La investigación cualitativa es interpretativa.

Paradigma: determinado patrón o conjunto de prácticas (lo que ha de observarse, cuáles


son las preguntas relevantes, cómo han de interpretarse lo resultados) señalado por la
mayoría de las teorías de la ciencia.

Postulado: verdad auto-evidente en los tiempos de la ciencia normal. Una especie de


reglas o conocimiento tácito. Es algo que está estipulado, tiene un status de aceptación
para realizar alguna tarea que se tiene entre manos (la realidad existe independiente de
la conciencia que se tenga de ella, el cuerpo y el alma son do entidades separadas, etc.).
Dichos postulados proporciona los fundamentos del paradigma de investigación más
aceptado.

En psicología el uso conjunto de ambas estrategias de investigación ha ido en aumento.

La estrategia experimental

La característica fundamental es el estudio de las relaciones causales entre las variables,


produciendo las condiciones de aparición del fenómeno de estudio a través de la
manipulación directa de las variables independientes, midiendo su efecto sobre las
variables dependientes y ejerciendo control sobre aquellas potencialmente
contaminadoras de los resultados (variables extrañas).

Esta estrategia no puede abarcar el estudio de todos los problemas de interés de la


investigación psicológica.
12  
 
Diseños experimentales de comparación de grupos

En este diseño experimental estarán implicados los supuestos básicos del método
experimental, pero su estructura concreta, y por tanto las diferentes denominaciones,
variarán en función de los procedimientos concretos que haya escogido el investigador.

La estructura interna de los diseños experimentales surge por las decisiones tomadas en
torno a cuatro dimensiones básicas que se combinas entre sí:

• Estrategia univariable o multivariable


• Estrategia simple (unifactorial) o factorial
• Estrtegia intersujeto o intrasujeto.
• Estrategia de aleatorización completa (simple) o con restinciones

El criterio de la dicotomía univariable-multivariable está vinculado a la variable


dependiente, es decir a la variable en la que se constata, a través de su medida, el efecto
de la variable independiente. Si la variable dependiente es única, se trata de un diseño
univariado o univariable. Si la infuencia o el efecto de la variable independiente se
realiza a través de las medidas de distintas variables dependientes, entonces hablamos
de un diseño mutivariado o multivariable. La estrategia multivariable se ajusta
eficzmente, en muchos caso, a la complejidad de los fenómenos de estudio de la
Psicología.

Otro elemento crítico para la diferenciación entre los diseños experimentales está
marcado por el número de variables manipuladas(variables independientes ofactores),
distinguiéndose básicamente entre diseños simples o unifactoriales y diseños factoriales.
El diseño unifactorial, sólo se manipula una variable independiente, que se operativizará
en u número determinado de valores o niveles, que a su vez generan el mismo número
de condiciones experimentales o de tratamientos a aplicar a los sujetos del estudio. En
su forma más sencilla incluye sólo dos condiciones experimentales diferentes, una que
incorpora la presencia o actuación de la variable independiente y otra con la ausencia de
la misma que actúa como control.

En los diseños factoriales, se maneja simultáneamente dos o más variables


independientes. Estos proporcionan información no sólo sobre los efectos específicos de
cada una de las variables manipuladas, sino de su posible efecto combinado o de
interacción.

El tercer criterio , si sometemos grupos diferentes de sujetos a las distintas condiciones


experimentales, para poder comparar sus medidas en la variable dependiente y de esa
forma valorar el efecto de la variable independiente, estamos utilizándola estrategia
intersujeto. Esta estrategia se basa en el supuesto de que estos grupos son inicialmente
equivalentes (antes de aplicar las condiciones experimentales), de formaque sus
diferencias después de los tratamientos se puedan atribuir inequívocamente a la variable
independiente. La estrategia básica para conseguir esta equivalencia inicial de los
grupos es la aleatorización.

En la estrategia intrasujeto, la igualdad o equivalencia inicial de las condiciones se


garantiza debido que todos y cada uno de los sujetos de la muestra recibe la aplicación
de forma sucesiva de todas las condiciones experimentales. Cada sujeto actúa como

13  
 
controlo referencia de sí mismo , de forma que el mismo grupo de sujetos nos
proporciona una serie de medidas cuyas diferencias podrán ser atribuidas
inequívocamente al efecto de los distintos niveles de la variable independiente. Esta
aplicación en serie de todos los tratamientos a cada sujeto puede generar por sí misma
efectos contaminantes que distorsione el efecto de la variable independiente ya que
deberán ser controlados con los procedimientos adecuados.

Diseños de caso único

Los inicios de la psicología científica están asociados a los estudios controlados de


sujetos individuales. Su utilidad para el estudio de procesos psicológicos básicos y su
adecuación a las necesidades de la investigación clínica han contribuido al desarrollo y
sistematización de un conjunto de procedimientos específicos que amplían el campo de
aplicación de estos diseños y su potencia para la obtención de conocimiento objetivo.

Los aspectos básicos que caracterizan este tipo de diseños son: la importancia del
componente temporal o longitudinal implicado en la serie amplia de datos o medidas del
sujeto necesarias, y la interrupción que crea en esta serie la aplicación del tratamiento,
lo que proporcionará los elementos de comparación que permiten valorar su efecto.

Diseños cuasi experimentales

Es una estrategia de investigación que pretendía potenciar el estudio de problemas de


relevancia social y profesional no trasladables al laboratorio, pero susceptible de ser
estudiados con un procedimiento controlado. El interés por el estudio de los fenómenos
en su entorno real y las limitaciones en las posibilidades de control aplicable en este tipo
de situaciones impulso a la sistematización de los cuasi experimentos.

Se aproxima lo más posible al control de la situación de estudio propio de un método


experimental, exceptuando su principal limitación, que se convierte en su elemento
diferenciador: los grupos de estudio no se pueden organizar por asignación aleatoria y,
por tanto, no garantiza la equivalencia inicial de los grupos. Los resultados obtenidos

14  
 
pueden diferir entre sí sin garantías de que estas diferencias sean sólo debidas
directamente a la manipulación de la variable independiente, intervención o tratamiento.

La sistematización de los diseños cuasi experimentales ha supuesto el análisis de los


problemas derivados de sus limitaciones de control y el desarrollo de recursos de
procedimiento como posibles controles alternativos. El análisis y la interpretación de los
resultados debe realizarse, en cualquier caso, con prudencia en lo que se refiere a las
diferencias de relaciones de causalidad, que en muchas ocasiones deberá incluir la tarea
específica de separar a través de los análisis estadísticos los efectos de tratamiento de
los efectos de las diferencias previas existentes entre los grupos.

Estrategia no manipulativa (correccional): diseños ex post facto, encuesta y


estudios observacionales

Determinados fenómenos no pueden provocarse de forma manipulada. Esta estrategia


los estudia a partir de la selección de sujetos en función de que posean entre sus
características un determinado valor o modalidad de las variables de estudio (sexo,
edad,nivel cultural,actitudes…), para poder estudiar la relación existente entre ellas o
con la respuesta que sus participantes dan ante determinadas situaciones o tareas
(rendimiento en pruebas, conductas prosociales, estrategias de sulución de problemas,
etc.)

Los elementos críticos son, la naturaleza de las variables (son variables de selección de
variables) y la estrategia de recogida de datos (no hay manipulación intencional sino
medida de los sujetos seleccionados en las variables de estudio).

Cuando las variables de estudio son de selección de valores y los objetivos de la


investigación pretenden aproximarse a la explicación del fenómeno en términos de
relaciones funcionales e incluso causales, el tipo de estudio planteado suele reunir las
características de los diseños ex post facto.

Cuando los objetivos de la investigación llevan a dar prioridad a los aspectos


expansivos de la muestra y amplitud del estudio frente a los aspectos intensivos de otros
estudios, se suele utilizar la denominación de encuesta.

Cuando el objetivo de la investigación se concreta en el estudio de la conducta


espontánea en situación natural, la estrategia de investigación aplicada debe conciliar el
nivel de sistematización y rigor suficiente para proporcionar conocimientos científicos,
con la protección del grado máximo de realismo en los datos obtenidos. Esta
conciliación es la característica fundamental de los estudios observacionales.

La estrategia observacional está planteada como un procedimiento global de


investigación de la conducta generada espontáneamente, a partir de una recogida de
datos sin restricciones impuestas por el investigador, pero que garantiza su
aplicabilidad, mediante la aplicación sistemática de sistemas de codificación ad hoc que
posibilitan el registro.

La aproximación multimétodo

15  
 
La validez última de una investigación, en el sentido de que sea capaz de dar respuesta
veraz al problema de estudio, dependerá más de la adecuación de la metodología
elegida y de la correcta y rigurosa realización del estudio, que de la elección de un
método que en términos teóricos se presente más potente que otros.

Cada método tiene un ámbito de actuación idóneo, pero no limitado. Cada uno de los
ámbitos de estudio y del ejercicio profesional de la psicología puede ser en sí mismo
campo de aplicación de cualquiera de las estrategias expuestas, dependerá en cada caso
del problema concreto, su operativización en variables y de las hipótesis planteadas. La
posible complementariedad de estudios realizados con distintas perspectivas
metodológicas en torno a un problema común puede ser la mejor estrategia para afrontar
un problema complejo. La aproximación del método permite aprovechar las
aportaciones específicas de distintas estrategias metodológicas, compensándose en sus
posibles limitaciones.

03. La naturaleza del control


Contenidos

1. 1 Concepto de varianza
2. 2 Definición de control
3. 3 Maximización de la varianza sistemática primaria
4. 4 Minimización de la varianza error
5. 5 Control de la varianza sistemática secundaria
6. 6 Técnicas de control
1. 6.1 Eliminación
2. 6.2 Constancia
3. 6.3 Balanceo o equilibración
4. 6.4 Sujeto con control propio
5. 6.5 Contrabalanceo o equiponderación
1. 6.5.1 Contrabalanceo intragrupo:
6. 6.6 Simple y doble ciego
7. 6.7 Sistematización de las variables extrañas
8. 6.8 Técnicas estadísticas

Concepto de varianza

Cuando realizamos un experimento, sometemos a los participantes a varios niveles de la


variable independiente (al menos dos: presencia y ausencia, con lo que tendríamos dos
condiciones) y tomamos medidas de la variable dependiente para ver el efecto del
tratamiento. Pues bien, a la variabilidad observada en esas medidas de la variable
dependiente, se le llama varianza total.

En la varianza total influye, además de las variables independiente te, otra serie de
variables que pueden provenir del propio sujeto, del ambiente o del procedimiento

16  
 
experimental, esta circunstancia hace que los sujetos sometidos al mismo tratamiento no
respondan igual.

La varianza total refleja todas las variaciones que encontramos en las medidas de la
variable dependiente.

Para poder especificar qué parte de esa varianza total se debe a la variable
independiente y qué parte se debe a otras variables, la desglosamos en varianza
sistemática y varianza error. A su vez, la varianza sistemática la desglosamos en
varianza sistemática primaria y varianza sistemática secundaria.

V.TOTAL=V.SISTEMÁTICA +V.ERROR

La varianza sistemática es "la tendencia que presentan los subconjuntos de datos


procedentes de los grupos experimentales a desviarse u orientarse, en su promedio, en
un sentido más que en otro" .Esta desviación podría ser debida a la influencia de la
variable independiente o a la influencia de variables extrañas. Por lo tanto, se producen
dos fuentes de variación sistemática: la varianza sistemática primaria y la varianza
sistemática secundaria.

V.SISTEMÁTICA = V.SITEMÁTICA PRIMARIA + V. SISTEMÁTICA


SECUNDARIA

La varianza sistemática primaria es la variabilidad de la medida de la variable


dependiente debida a la influencia de la manipulación de la variable independiente. Es
la que busca el experimentador. También se llama varianza intergrupo. Cuanto mayor es
esta varianza, mayor será la efectividad del tratamiento o condición experimental.

La varianza sistemática secundaria es la variabilidad de la medida de la variable


dependiente debida a la influencia de las variables extrañas. A esta influencia de
variables extrañas la llamamos sistemática porque es previsible y, por lo tanto,
controlable.

Todas esas variables, que pasan a llamarse extrañas, hay que controlarlas, de manera
que igualemos su efecto en todos los grupos.

Estas variables pueden proceder del sujeto, del ambiente y del procedimiento
experimental.

Las variables extrañas a veces son desconocidas e imprevisibles, hecho que impide su
control y que da lugar a que, en cualquier experimento, además de la varianza
intergrupo también exista la varianza error.

La varianza error es "la porción de varianza total que todavía queda por explicar
cuando se han eliminado todas las influencias sistemáticas". Esta varianza es
impredecible porque es debida a la influencia de variables desconocidas e imprevistas
que pueden constituir fuentes de variación aleatoria como, por ejemplo, la motivación
de los sujetos para realizar el experimento. A esta varianza también se le llama varianza
intragrupo, porque se estema en función de las diferencias que hay entre los datos de los
sujetos dentro de sus respectivos grupos.
17  
 
Para calcular la varianza sistemática primaria o intergrupo tenemos que lleva a cabo los
siguientes tres pasos:

1. Calcular la media total, es decir, la media aritmética de las medias de los grupos.
2. Hallar la variabilidad de la media de cada grupo respecto a la media total
(diferencia entre la media de cada grupo y la media total).
3. Calcular la varianza intergrupos. Esta varianza sería un índice de variación de la
media de cada grupo respecto a la media total.

La varianza total se calcula a través de todas las puntuaciones de los sujetos. En lugar de
calcular las variaciones de la media de los grupos respecto a la media total, se calculan
las variaciones o puntuación diferencial (x) de cada sujeto respecto a la media del
grupo.

En efecto, la varianza total contiene todas las fuentes de variación de los datos (los
sistemáticos y los debidos al azar).

Una vez que conocemos la varianza total y la varianza sistemática intergrupos


calculamos la varianza error. Para ello calculamos la variación que se produce dentro de
cada grupo en torno a sus respectivas medias y, a continuación, hallamos la media de
estas dos variaciones.

Definición de control

Es la capacidad que tiene el investigador para producir fenómenos bajo condiciones


reguladas. Para ello es necesario: determinar la conducta que se va a estudiar (variable
dependiente), conocer las variables relevantes que pueden afectar a esa conducta, elegir
una o varias de ella como variable independiente y eliminar o mantener constantes las
variables extrañas.

Este control engloba un conjunto de técnicas que utiliza el investigador para poder
concluir que los cambios observados en la variable dependiente son causados
únicamente por los cambios introducidos en la variable independiente.

Dicha técnicas suponen la actuación del investigador sobre tres tipos de variables:

1. Variable independiente, aplicando los valores de la misma que él decide y


cuando él decide (manipulación).
2. Variables extrañas, eliminándolas o intentando que éstas influyan de la misma
manera en todos los grupos.
3. Factores aleatorios, intentando que su influencia sea mínima sobre la variable
dependiente.

El uso de las técnicas de control, persigue conseguir que se cumpla el Principio MAX-
MIN-CON

Que consiste en maximizar la varianza sistemática primaria, minimizar la varianza error


y controlar la varianza sistemática secundaria.

Maximización de la varianza sistemática primaria


18  
 
Se consigue eligiendo los valores de la variable independiente más adecuados para
producir cambios en la dependiente.

Unas veces lo ideal será utilizar valores extremos, otras valores intermedios, algunas
veces será mejor utilizar pocos niveles o tratamientos y otras el mayor número posible.

Quizá, el mejor medio para incrementar el efecto de la variable independiente sea elegir
los valore extremos de esa variable.

Los valores extremos de la variable independiente sólo se deben utilizar cuando entre
las variables hay una relación claramente lineal o monotónica, es decir, a medida que
aumentan o disminuyen los valores de la variable independiente aumentan o disminuyen
los valores de la medida de la variable dependiente.

Cuando hay una relación curvilínea entre las variables, no se deben seleccionar valores
extremos, ya que podríamos concluir erróneamente que la variable independiente no
tiene ningún efecto en la variable dependiente. Habría que considerar los valores
intermedios.

Puede ocurrir que estemos trabajando con variables poco estudiadas y no sepamos qué
tipo de relación existe entre ellas. En este caso, podemos optar por utilizar muchos
valores de la variable independiente o por hacer un estudio piloto para seleccionar los
valore más adecuados.

Minimización de la varianza error

Es la variable inconsistente que se produce en las medidas de la variable dependiente


causada por fluctuaciones aleatorias que se compensan entre sí (su media es cero).
Constituye un ruido de fondo y tiene un carácter eminentemente aleatorio en el sentido
de que mientras la varianza sistemática es esencialmente pronosticable, la varianza error
es imposible de pronosticar y, en consecuencia, es muy difícil ce controlar.

El origen de esta varianza suele estar en tres tipos de factores. En primer lugar, tenemos
los factores asociados a los errores de medida, procedentes de los métodos utilizados
para registrar y cuantificarlo os resultados, como por ejemplo la utilización de
instrumentos poco precisos. En segundo lugar, podemos citar la diferencias individuales
de los sujetos dentro de cada grupo, cuando estas diferencias son imposibles de
identificar y controlar, como por ejemplo, el cansancio, lapsus de memoria o
distracciones a la hora de realizar la tarea. Y, por último, el procedimiento experimental
como por ejemplo, la utilización de instrucciones poco claras o el efecto del
experimentador.

Los instrumentos utilizados en la medición del al variable dependiente tienen que medir
aquello que pretende medir (validez), tienen que poder discriminar entre las ejecuciones
de los sujetos (sensibilidad) y tienen que producir puntuaciones con poca variabilidad
del mismo sujeto en diferentes ocasiones (fiabilidad). Cuanto mayor sea el tamaña de
los grupos, mayor será la probabilidad de que los errores aleatorios se cancelen entre sí,
es decir, que su meda sea cero. Las instrucciones deben ser caras iguales para todos los
sujetos y el experimentador deber ser el mismo en todos los grupos, y a ser posible, que
no conozca la hipótesis.

19  
 
Control de la varianza sistemática secundaria

Es la variabilidad de la medida de la variable dependiente debida a la influencia de las


variables extrañas que no se han podido controlar. Las fuentes de las que proceden estas
variables son: el sujeto, el ambiente y el procedimiento experimental.

Las variables de sujeto son las diferencias individuales entre los participantes del
experimento, como pueden ser: sexo, edad, aptitud, el que los sujetos sean voluntarios o
no, la información previa que tengan acerca del experimento, etc. Su posible influencia
se hace más relevante cuando la situación experimental es intergrupo.

Los aspectos ambientales son las condiciones físicas en las que se realiza el
experimento, como puede ser: ruido, luz, temperatura, humedad, etc.

Procedimiento experimental son los aspectos relacionados con los instrumentos de


medida, las instrucciones, los estímulos, el material, el experimentado, etc. El
experimentador es una del as fuentes más importantes de variables extrañas que pueden
dar en una investigación. Su influencia sobre los resultados del estudio se puede deber a
diversos factores a veces difíciles de controlar: la edad, el atractivo físico, el género, la
personalidad, la experiencia, la emisión inconsciente de señales al sujeto a través de
posturas, gestos o verbalizaciones, que registre o interprete mal los datos, etc. Todas
estas fuentes de error se pueden dar tanto en situaciones intergrupo o intersujeto como
en las intragrupo o intrasujeto y mixtas.

La situación intergrupo se caracteriza porque está formado por sujetos diferentes y es


sometido a un tratamiento único y diferente. El investigador tiene que preocuparse por
conocer y controlar las variables extrañas relacionadas con los sujetos. Lo único que
tiene que diferenciar a los grupos el tratamiento.

En la situación intragrupo el investigador no se tiene que preocupar por las diferencias


individuales, ya que le mismo grupo de sujetos pasa por todos los tratamientos, pero sí
tiene que controlar estos tres aspectos:

1. Que el aprendizaje de la estrategia de resolución de una prueba no les sirva para


la prueba siguiente
2. Que el orden de presentación de los estímulos no influya en los resultados
3. Que un tratamiento no deje efectos residuales en los sujetos que puedan
contaminar el efecto del siguiente tratamiento.

Existen situaciones mixtas, en las que algunos sujetos pasan por todos los tratamientos y
otros sólo por alguno. En estas situaciones, hay que controlar las variables asociadas a
las situaciones intergrupo y las asociadas a las situaciones intragrupo.

Técnicas de control

Estas técnicas están dirigidas a logras y mantener la equivalencia inicial de los grupos,
esta es una de las condiciones que se exige para poder realizar comparaciones entre las
diferentes condiciones o grupos.

Eliminación
20  
 
Consiste, en eliminar los variables extrañas del estudio, utilizar el valor cero de la
variable extraña eliminando todos los demás valores. Resulta bastante útil para controlar
variables que provienen del medio ambiente.

Constancia

Cuando no se puede eliminar una variable extraña de la situación experimental, se


puede utilizar un valor diferente de cero de esa variable, manteniendo constante ese
valor en todos los sujetos.

Esta técnica de control es adecuada para variables físicas y de sujeto.

Balanceo o equilibración

Con ella se pretende equilibrar el efecto de una variable extraña manteniendo constante
le proporción de cada valor de esta en todos los grupos.

Ello se consigue mediante las técnicas de aleatorización, bloques y emparejamiento.

Aleatorización: esta técnica está asociada a los diseños de grupos aleatorios. Permite el
control de las variables conocidas y el de las desconocidas. Se reparten aleatoriamente
los distintos valores de las variables extrañas entre los distintos grupos o condiciones.
Esta técnica nos asegura que las variables extrañas que pueden influir en los resultados
del estudio, tienen la misma probabilidad de actuar en todos los grupos, puesto que
éstos se han formado equivalentes en esas variables. Esta técnica requiere un gran
número de sujetos para garantizar que estas variables se distribuyan de igual forma en
todos los grupos.

Bloques: mediante este procedimiento se forman subgrupos de sujetos (llamados


bloques) con puntuaciones similares en una variable extraña muy relacionada con la
variable dependiente (a esa variable se le llama variable de bloqueo) y después se
asignan aleatoriamente el mismo número de sujetos de cada bloque a cada grupo.

Emparejamiento: también se les llamas técnicas de equiparación y es muy similar a la


anterior. Consiste en asignar a cada uno de los grupos, sujetos que posean la misma
magnitud o puntuación e una o varas variables extrañas muy relacionadas con la
variable dependiente o en la misma variable dependiente. A la variable muy relacionada
con la variable dependiente se le llama variable de emparejamiento. La efectividad de
esta técnica depende del grado de correlación existente entre la variable de
emparejamiento y loa variable dependiente y es especialmente útil cuando la muestra es
pequeña.

Sujeto con control propio

Esta técnica se halla asociada al diseño intrasujeto y se utiliza para controlar las
variables extrañas procedentes de los sujetos. Con esta técnica los mismos participantes
pasan por todas las condiciones y de esta forma las variables extrañas de sujetos se
mantienen constantes en todas las condiciones.

21  
 
Cuando un participante o grupo de participantes pasas por todas las condiciones, se le
aplican los diferentes tratamientos, secuencialmente. El orden o lugar que ocupa cada
tratamiento dentro de la secuencia puede alterar los resultados.

El error progresivo está asociado al efecto que produce el orden en que se presenta cada
tratamiento y debido a este tipo de error se pueden confundir los efectos del tratamiento
con los efectos del orden que ocupa ese tratamiento dentro de la secuencia
experimental. Este efecto puede provocar aprendizaje y favorecer los resultados del
estudio o fatiga y perjudicar los resultados. Este tipo de error se controla mediante la
técnica de contrabalanceo. También puede ocurrir que cuando se le aplica al sujeto un
tratamiento aun no se le haya pasado el efecto del tratamiento anterior. A este hecho se
le llama efectos residuales o de arrastre. Este efecto se puede controlar espaciando el
tiempo entre las condiciones y utilizando la técnica de contrabalanceo.

Contrabalanceo o equiponderación

Se utiliza, principalmente, para controlar el efecto del orden o error progresivo, y se


basa en la existencia de una relación lineal entre el error progresivo y el orden que
ocupa cada tratamiento dentro de la secuencia experimental. A medida que aumenta el
número de orden aumenta el nivel de error progresivo. A cada sujeto se le presentan las
condiciones experimentales en un orden diferente, de manera que en el conjunto total de
condiciones del experimento, cada una de ellas de haya aplicado el mismo número de
veces en el mismo orden.

Contrabalanceo intrasujeto: controla el error progresivo en el ámbito individual,


haciendo que cada sujeto reciba las condiciones o tratamientos en un determinado orden
en primer lugar y en el orden inverso en segundo lugar. Si tenemos tres condiciones
ABC, de ordenarán de la siguiente forma: ABCCBA. Se aplicará primero a los sujetos
el oren ABC y a continuación el orden CBA.

La técnica de control de balanceo distribuye por igual el error progresivo a lo largo de la


secuencia experimental.

La técnica contrabalanceo intrasujeto tiene el inconveniente de que cada sujeto recibe


más de una vez cada tratamiento, con el consiguiente aumento del tiempo de
experimentación. Para salvar este inconveniente se puede utilizar las siguientes técnicas
de control.

Contrabalanceo intragrupo:

Consiste en administrar distintas secuencias de tratamientos a diferentes subgrupos de


sujetos. Con esta técnica se controla el efecto de error progresivo en el grupo y no se
forma individual como en el contrabalanceo intrasujeto.

Contrabalanceo intragrupo completo

En este caso hay que utilizar todas las permutaciones posibles de los órdenes de los
tratamientos. Para calcularlas se halla la factorial de número de condiciones.

Subgrupo 1 secuencia AB
22  
 
Subgrupo 2 secuencia BA

Si tenemos tres condicione experimentales ABC el número de secuencias será:

n!=3!=3·2·1=6

ABC, BCA, CAB, ACB, BAC, CBA

En este caso se dividiría la muestra en seis subgrupos y aleatoriamente se le aplicaría


una secuencia a cada grupo.

El número de secuencias va aumentando sensiblemente a medida que aumenta el


número de condiciones experimentales o tratamientos. Este tipo de contrabalanceo no es
adecuado cuando el numero de tratamientos es grande. Cuando esto ocurre es mejor
utilizar el contrabalanceo incompleto.

Contrabalanceo intragrupo incompleto

Sólo se aplica a los sujetos algunas secuencias de tratamientos. Existen dos formas
posibles de elegir las secuencias concretas a aplicar:

Contrabalanceo de cuadrado latino: consiste en utilizar solo tantas secuencias como


tratamientos haya en el experimento. Cada secuencia de administra a un subgrupo
deferente de sujetos. Para saber qué secuencias tenemos que utilizar podemos rotar la
condición inicial de la primera secuencia hasta el final y así sucesivamente hasta
obtener el número de secuencias deseadas. Si tenemos, por ejemplo, seis tratamientos
ABC-DEF, tenemos que dividir la muestra en seis subgrupos y aplicar a cada subgrupo
una secuencia diferente.

ABCDEF

BCDEFA

CDEFAB

DEFABC

EFABCD

FABCDE

El conjunto de estas secuencias da lugar a una estructura de cuadrado latino con tantas
filas y columnas como número de tratamientos se utilicen en el experimento. Su
estructura se basa en que cada condición aparezca una sola vez en cada fila y en cada
columna y que cada condición aparezca una sola vez en cada posición ordinal.

Contrabalanceo aleatorio: consiste en seleccionar al azar, de todas las secuencias


posibles, tantas secuencias como número de participantes haya en la muestra y aplicar,
también aleatoriamente, una secuencia a cada participante. Por ejemplo, si tenemos
cinco tratamientos ABCDE y una muestra de 60 sujetos. Como el número total de
23  
 
secuencias seria 120(5!=5.4.3.2.1=120) y solo tenemos 60 participantes, elegimos
aleatoriamente 60 secuencias y se asigna al azar una a cada participante. Este tipo de
contrabalanceo puede considerarse como un forma de contrabalanceo incompleto y
requiere un numero alto de sujetos, para que pueda actuar correctamente el azar.

Simple y doble ciego

Estas técnicas se utilizan para controlar las amenazas a la validez características de la


demanda de la situación experimental y efecto del experimentador.

Consiste en que los participantes en el estudio desconocen la situación experimental en


la que se encuentran y/o el tratamiento que se les aplica. Ni el sujeto, ni el investigador
conocen en que condición se encuentran.

Ambas técnicas se utilizan con bastante frecuencia en la investigación en Psicología


Clínica y Educativa.

Sistematización de las variables extrañas

Esta técnica consiste básicamente en que el investigador convierte una variable extraña
en variable independiente y la incorpora a la investigación mediante un diseño de dos
variables independientes.

Técnicas estadísticas

En este caso, el control sobre la investigación no se hace directamente sobre las


variables extrañas, sino que se hace aplicando, posteriormente a la investigación ciertos
procedimientos estadísticos. Estos procedimientos nos permiten separar el efecto que
tiene la variable independiente sobre la dependiente del efecto que pueden tener las
variables extrañas sobre la variable dependiente.

Las técnicas estadísticas de control mas utilizadas son la correlación parcial y el análisis
de covarianza (ANCOVA).

04. La validez de la investigación


Contenidos

1. 1 Introducción
2. 2 Concepto y tipos de validez
3. 3 Validez de la conclusión estadística: concepto y amenazas
1. 3.1 Violación de los supuestos del modelo estadístico
2. 3.2 Baja potencia estadística
3. 3.3 Otras amenazas contra la validez inferencial
4. 4 Validez interna: concepto y amenazas
1. 4.1 Ambigüedad en la contigüidad temporal de la causa
2. 4.2 Historia
24  
 
3. 4.3 Maduración
4. 4.4 Administración de pruebas
5. 4.5 Instrumentación
6. 4.6 Selección diferencial
7. 4.7 Mortalidad experimental
8. 4.8 Regresión estadística
5. 5 Validez de constructo: concepto y amenazas
6. 6 Validez externa: concepto y amenazas
1. 6.1 Amenazas contra la validez externa relacionadas con la interacción con el
tratamiento
1. 6.1.1 Interacción entre selección y tratamiento (selección x tratamiento)
2. 6.1.2 Interacción entre situación y tratamiento (situación x tratamiento)
3. 6.1.3 Interacción de historia y tratamiento (historia x tratamiento)
2. 6.2 Amenazas no relacionadas con la
interacción
1. 6.2.1 Interferencia de tratamientos múltiples
2. 6.2.2 Efecto reactivo de las pruebas
3. 6.2.3 Efecto reactivo de los dispositivos experimentales

Introducción

La validez de la investigación está relacionada con la veracidad de sus resultados.


Depende de:

• La estrategia de investigación.
• La planificación de la investigación (cuidado y rigurosidad).

Cuanta más validez tenga una investigación, mayor fuerza tendrán sus conclusiones y
mayor poder de generalización (a población, situación y/o tiempo).

Concepto y tipos de validez

Validez es el grado de confianza que puede adoptarse respecto a la veracidad o falsedad


de una determinada investigación.

Tipos de validez:

• Validez de la inferencia casual


o Validez de conclusión estadística: ¿existe relación entre dos variables?
o Validez interna: suponiendo que tal relación exista, ¿es de naturaleza
causal o puede darse sin el tratamiento?
• Validez de la generalización de la inferencia casual:
o Validez de constructo: En el caso de que la relación se dé y sea causal,
¿cuáles son los constructos implicados en dicha relación?, ¿qué relación

25  
 
mantienen con las variables utilizadas y en qué medida éstas son
representativas de sus respectivos constructos?
o Validez externa: Suponiendo que se dé todo lo anterior, ¿en qué medida
puede generalizarse la inferencia causal a otros sujetos y contextos?

En cualquier investigación se deberían considerar los cuatro tipos de validez y las


amenazas que pudieran afectarles. Deberíamos llegar a un compromiso entre todos los
tipos para que la investigación sea lo más válida posible.

Amenaza contra la validez: Aspectos de la investigación en los que existe el riesgo de


que quien investiga cometa errores al realizar inferencias causales, utilizar de manera
incorrecta los constructos y las variables implicadas en el estudio.

Validez de la conclusión estadística: concepto y amenazas

Validez de conclusión estadística = validez inferencial: Grado de confianza que


podemos tener, dado un nivel determinado de significación estadística, en la correcta
inferencia de la hipótesis. Se refiere, principalmente, a dos inferencias estadísticas que
pueden afectar a la covariación o relación empírica entre la VI (causa) y la VD (efecto):

1. ¿Covarían la VI y la VD?
o Error tipo I: Se concluye que existe una relación entre las variables
cuando, en realidad, no se da.
o Error tipo II: Se concluye que no existe relación entre las variables
cuando, en realidad, sí se da.
2. En el caso de que covaríen, ¿cuál es la
magnitud de dicha covariación?
o Infraestimación del valor de la covariación.
o Sobreestimación del valor de la covariación.

Existen varios tipos de amenazas contra la validez inferencial que vemos a


continuación.

Violación de los supuestos del modelo estadístico

Esta amenaza está relacionada con el hecho de que, a veces, aplicamos una prueba
estadística sin tener en cuenta los supuestos que deben cumplir los datos para que dicha
prueba se pueda aplicar. Tendemos a aplicar técnicas paramétricas sin que se cumplan
los supuestos de independencia de las observaciones, normalidad de las puntuaciones y
homogeneidad de las varianzas. La violación de estos supuestos puede sobreestimar o
infraestimar el tamaño y la significación del efecto del tratamiento. Para controlarla hay
que elegir adecuadamente una prueba estadística o no paramétrica, dependiendo de si
los datos cumplen o no los supuestos del modelo paramétrico.

Baja potencia estadística

Potencia de una prueba es la probabilidad de rechazar la hipótesis nula cuando la


hipótesis alternativa es cierta.

26  
 
Si no elegimos bien el nivel de significación estadística y/o el tamaño de la muestra,
podemos concluir erróneamente que la relación entre las variables no es significativa
(error Tipo II) aceptamos la hipótesis nula cuando la hipótesis alternativa es cierta.

Se controla eligiendo adecuadamente el nivel de significación estadística y el tamaño de


la muestra necesario para no cometer error Tipo II.

Otras amenazas contra la validez inferencial

• Tasa de error tipo I: Con algunas pruebas estadísticas, la probabilidad de


cometer error Tipo I se incrementa a medida que aumenta el número de pruebas
ejecutadas. Ej: Cuando se aplican comparaciones múltiples entre medidas de
tratamientos.
• Imprecisión de las medidas: Cuando se utilizan medidas de poca fiabilidad y
validez puede aumentar la varianza error, provocando conclusiones erróneas
sobre la covariación.
• Escasa fiabilidad en la aplicación de los tratamientos: Si los tratamientos no se
aplican de forma homogénea a quienes participan o al mismo participante de una
aplicación a otra, puede aumentar la varianza error, provocando conclusiones
erróneas sobre la covariación.
• Restricción del rango de las variables: Cuando las variables presentan
restricciones en su variación tanto en su rango inferior (efecto suelo), como en
su rango superior (efecto techo), la potencia disminuye y la inferencia se
debilita.
• Presencia de varianza error en el contexto de la investigación: Si alguna
característica del contexto aumenta la varianza error de forma artificial, se puede
llegar a conclusiones erróneas respecto a la covariación.
• Muestra muy heterogénea: Cuanto más heterogénea sea la muestra, mayor será
la desviación típica y menor la probabilidad de detectar la posible covariación
entre la VI y la VD.
• Estimación imprecisa de la magnitud del efecto: Algunos estadísticos
infraestiman o sobreestiman la magnitud de un efecto.

Validez interna: concepto y amenazas

Probabilidad de obtener conclusiones correctas acerca del efecto de la VI sobre la VD.

Se considera causal porque se centra en especificar los factores causantes del cambio
observado en la VD, en un contexto y periodo determinado.

Una interferencia causal será válida en la medida en que el diseño de investigación


utilizado sea capaz de establecer una contigüidad temporal entre la VI y la VD y
eliminar todas las hipótesis explicativas rivales, de forma que se demuestre que el efecto
observado en la VD (criterio) se debe exclusivamente a la VI (predictiva). Para que esto
ocurra hay que.

• Controlar las VVEE


• Distinguir si la dirección de la causación va desde la variable manipulada
(causa) a la variable medida (efecto) o viceversa. Esto depende del conocimiento
que se tenga de la secuencia temporal de las variables.

27  
 
La validez interna esta relacionada con la calidad del experimento y se logra cuando:

• Controlamos la varianza sistemática secundaria.


• Los grupos sólo difieren en el tratamiento.
• La medición de la VD es válida y fiable.

El diseño internamente válido es aquel en el que las diferencias observadas en la VD


entre los diferentes grupos pueden atribuirse única y exclusivamente a las variaciones
producidas en la VI.

Amenazas contra la validez interna:

• Ambigüedad en la contigüidad temporal de la causa (procedencia temporal


ambigua de la causa).
• Historia.
• Maduración.
• Administración de pruebas.
• Instrumentación.
• Selección diferencial.
• Mortalidad experimental.
• Regresión estadística.
• Posibles interacciones de todas las anteriores con la selección diferencial.

Ambigüedad en la contigüidad temporal de la causa

Falta de claridad sobre cuál es la causa y cuál el efecto, debida a la ambigüedad que
puede haber respecto a la contigüidad temporal de las variables objeto de estudio. Suele
ocurrir en:

• Investigaciones no experimentales.
• Investigaciones ex post facto.

¿Qué se puede hacer para controlarla en los estudios no experimentales?

• Hacer diseños longitudinales.


• Utilizar algunas técnicas de análisis de datos como:
o Ecuaciones estructurales.
o Path análisis o Análisis de senderos (que trata de establecer una
contigüidad temporal entre las variables implicadas en la investigación).

Historia

Acontecimientos que ocurren durante el desarrollo del estudio, dentro o fuera del
mismo, que pueden afectar a la VD y confundir los resultados. Se debe a factores:
ambientales, sociales, personales.

¿Cómo puede controlarse? Manteniendo constantes las VVEE o eliminándolas de todos


los grupos con:

• Grupos de control.
28  
 
• Técnicas de aleatorización, de constancia y de eliminación.

Ejemplo: Estudio sobre la eficacia de un programa para jóvenes, para dejar de fumar,
durante nueve meses. En la vida de las y los jóvenes pueden ocurrir multitud de
acontecimientos que condicionen su respuesta.

La historia local es la posibilidad de que acontecimientos externos afecten de forma


diferente a cada uno de los grupos, debido al hecho de que los sujetos procedan de
contextos diferentes. Se da en algunos diseños donde los grupos ya están formados
antes de seleccionarlos, puede darse una interacción entre la selección y la historia
(cuasiexperimentales).

Maduración

Cambios debidos a procesos internos en quienes participan, como consecuencia del


transcurso del tiempo (independientes del tratamiento). Se deben a: adaptación, fatiga,
aburrimiento, crecimiento biológico/psicológico.

Es más probable:

• Cuanto mayor es el intervalo entre la aplicación del tratamiento y la medida de


la VD.
• Cuando los sujetos estudiados son niñas y/o niños.

Maduración ≠ Historia: la diferencia entre maduración e historia es que en la


maduración, los cambios no son debidos a aspectos ambientales o circunstanciales, sino
que son inherentes al propio sujeto.

Ejemplo: Estudio sobre la eficacia de un entrenamiento en asertividad sobre niñas y


niños de 8 años, durante un año. ¿Cómo puede controlarse?

• Reducir el tiempo del experimento. (3 meses)


• Añadir un grupo de control. (sin tratamiento)

Administración de pruebas

La familiaridad con la prueba puede distorsionar la respuesta de los sujetos en la prueba


siguiente (más, cuantas más veces que se use). También ocurre con pruebas diferentes
pero afines. Suele darse en:

• Diseños intersujeto con medida pretest y postest: Interacción pretest-tratamiento.


• Diseños intrasujeto: efecto de orden o error progresivo y efectos residuales o de
arrastre.

Ejemplo: Estudio sobre la eficacia de un programa para jóvenes, para dejar de fumar,
durante nueve meses. El simple hecho de realizar un primer test y sentirse observados
puede que condicione su respuesta (sensibilización). ¿Cómo puede controlarse?

• En diseños intersujeto:
o Prescindiendo de la medida pretest.

29  
 
o Utilizando grupos de control sin tratamiento con medida pretest y
postest. (Diseño Solomon: Cuatro grupos. 2 con pre+post -1 sin
tratamiento- y 2 sólo con post -1 sin tratamiento-)
• En diseños intrasujeto:
o Técnicas de contrabalanceo.

Instrumentación

Provocada por los cambios que puedan darse a lo largo del tiempo en los instrumentos o
procedimientos de registro o medida (la medición de la conducta tiene que ser precisa y
consistente a lo largo de toda la investigación y con todas las personas que participan).

Los instrumentos pueden estar mal calibrados o deteriorados por el paso del tiempo.

Las deficiencias relativas a los observadores humanos pueden deberse al aprendizaje,


cansancio, aburrimiento, falta de motivación, distracciones... En la metodología
observacional cualitativa, las medidas dependen de la percepción y decisión del que
observa y registra.

¿Cómo puede controlarse?

• Entrenando a los observadores.


• Utilizando instrumentos estandarizados, válidos y fiables.

A veces el instrumento comete errores al medir la conducta de participantes dentro del


mismo grupo. Estos errores podrían considerarse aleatorios (aumenta la Varianza
Error). Se podrían controlar con grupos grandes.

Selección diferencial

En la formación de los grupos (deberían ser equivalentes antes de aplicar el


tratamiento).

Suele darse en diseños cuasiexperimentales porque se utilizan grupos ya formados.

No suele darse en diseños experimentales (grupos formados por aleatorización, bloques


o emparejamiento).

¿Cómo puede controlarse?

• En diseños intersujeto: Asignando a las personas participantes (a grupos o a


tratamientos) mediante técnicas de aleatorización o bloques.
• En diseños intrasujeto: Seleccionando la muestra aleatoriamente de la población.
• En diseños no experimentales: Usando muestras amplias y representativas,
elegidas aleatoriamente.

Ejemplo: Estudio sobre la eficacia de un entrenamiento en asertividad sobre niñas y


niños de 8 años, durante un año. Si la muestra son dos clases distintas con profesorado
distinto, los resultados no serán concluyentes.

30  
 
Mortalidad experimental

Pérdida diferencial de participantes durante el experimento. Muy relacionada con la


selección diferencial.

La equivalencia inicial de los grupos se ve amenazada porque habrá sujetos de uno de


los grupos abandonen el experimento.

¿Cómo puede controlarse? Con grupos grandes como para que pueda seguir actuando el
azar.

Ejemplo: Estudio sobre la eficacia de un programa para jóvenes, para dejar de fumar. Si
el grupo es pequeño y las conferencias les aburren, es posible que sólo continúen las
personas motivadas inicialmente en dejar de fumar.

Regresión estadística

Relacionada con la selección de los sujetos. Suele darse cuando los tratamientos no se
asignan aleatoriamente, sino en función de los valores medidos en una variable (también
puede suceder con la medida pretratamiento). Si seleccionamos a participantes con
puntuaciones muy extremas, suele ocurrir que al volver a medir, las puntuaciones se
acercan a valores medios.

Ejemplo: Estudio sobre la eficacia de un entrenamiento en asertividad sobre niñas y


niños de 8 años. Si sólo se elige a los que han obtenido puntuaciones bajas en una única
medida inicial.

¿Cómo puede controlarse? Realizando varias medidas antes de seleccionar a los sujetos.

Amenazas Control
Ambigüedad en la contigüidad temporal Técnicas de análisis de datos.
de la causa
Estudios longitudinales.
Historia Grupo de control.

Aleatorización.

Constancia y eliminación.
Maduración Grupo de control.

Reducir el tiempo de estudio.


Administración de pruebas Grupo de control.

Contrabalanceo.
Instrumentación Instrumentos válidos, sensibles y fiables.

Entrenamiento del observador.


Selección diferencial Asignación aleatoria.

31  
 
Bloques aleatorios.

Emparejamiento.
Mortalidad experimental Grupos con muchos sujetos.
Regresión estadística Instrumentos fiables.

Tomar varias medidas antes de seleccionar a


los sujetos.

Validez de constructo: concepto y amenazas

Grado de correspondencia entre las variables observadas y el constructo teórico que se


quiere medir. ¿Hasta qué punto se pueden inferir constructos teóricos a partir de las
relaciones causa-efecto que se dan entre las variables objeto de la investigación?

Tipos de validez de constructo:

• Validez de constructo de una causa: Grado en que al VI representa el constructo


teórico al que se pretende atribuir el efecto del tratamiento. Estudio en el que
queremos introducir pena para evaluar su efecto en la conducta de ayuda y
colaboración. ¿Realmente conseguimos introducir pena?
• Validez de constructo de un efecto: Grado en que la VD representa el atributo
teórico que se pretende medir. Al operativizar la autoestima, ¿en qué medida
evaluamos este constructo y no lo confundimos con otro como la asertividad?

Amenazas:

• Inadecuada comprensión, explicación o definición del constructo teórico.


• Inadecuada medición de los constructos.
• Reactividad de los dispositivos experimentales.

¿Cómo pueden controlarse?

• Desarrollando una teoría adecuada del constructo que lo relaciones con otros
constructor y con otras posibles operaciones.
• Técnicas de simple y doble ciego (para que personal participante y/o
investigador desconozcan la condición experimental).

Validez externa: concepto y amenazas

Posibilidad de generalizar la relación causal observada en un determinado estudio más


allá de las circunstancias bajo las que se ha obtenido dicha relación (generalización de
los resultados).

Dimensiones de la validez externa:

• Validez poblacional: Generalización a toda la población y/o a otras poblaciones.


• Validez ecológica: Generalización a otros contextos, situaciones o ambientes.
• Validez histórica: Generalización a otros momentos temporales.

32  
 
Amenazas contra la validez externa relacionadas con la interacción con el
tratamiento

Interacción entre selección y tratamiento (selección x tratamiento)

Atenta contra la validez poblacional porque la relación hallada entre las variables es
específica de las personas que han participado en el estudio.

¿Cómo puede controlarse?

• Acotando con exactitud las características de la población de referencia y


seleccionando aleatoriamente la muestra de dicha población.
o Si lo anterior es imposible:
§ Usar una muestra heterogénea.
• Replicar el experimento con muestras diferentes.

Interacción entre situación y tratamiento (situación x tratamiento)

Atenta contra la validez ecológica. Suele deberse a la artificialidad de las situaciones


experimentales.

Muy frecuente cuando utilizamos el método experimental. No suele darse en:

• Investigaciones observacionales.
• Metodología cualitativa.

¿Cómo puede controlarse? Replicando la investigación en situaciones diferentes


(procurando que la situación experimental sea lo más natural posible, dentro del rigor
que exige la investigación).

Interacción de historia y tratamiento (historia x tratamiento)

Atenta contra la validez histórica. Aparece si durante el trascurso de la investigación


ocurren acontecimientos que interactúan con el tratamiento.

¿Cómo puede controlarse? Replicando el experimento en diferentes momentos


temporales.

Amenazas no relacionadas con la


interacción

Interferencia de tratamientos múltiples

En diseños intrasujetos (varios tratamientos a los mismos participantes), la respuesta a


un tratamiento puede estar condicionada por los tratamientos anteriores. Esto afecta:

• A la validez interna.
• A la validez externa.

Consecuencia: Reducción de la capacidad de generalización de los resultados.


33  
 
¿Cómo puede controlarse? Mediante la técnica del contrabalanceo.

Efecto reactivo de las pruebas

Muy parecida a la amenaza anterior. Puede darse en:

• Diseños intrasujeto.
• Diseños intersujetos con medida pretest, porque este puede sensibilizar a los
sujetos.

Esto afecta:

• A la validez interna.
• A la validez externa.

¿Cómo puede CONTROLARSE? Del mismo modo que la amenaza “administración de


pruebas”.

• En diseños intersujeto:
o Prescindiendo de la medida pretest.
o Utilizando grupos de control sin tratamiento con medida pretest y
postest.
• En diseños intrasujeto:
o Técnicas de contrabalanceo.

Efecto reactivo de los dispositivos experimentales

La persona objeto de estudio no responde al tratamiento, sino a lo que cree que el que
experimenta desea que responda (evita las respuestas que cree que pueden suscitar una
valoración negativa).

¿Cómo puede controlarse? Con la técnica de simple y doble ciego.

Los sujetos no responden al tratamiento, sino al carácter novedoso/inusual de la


situación en la que se administra.

05. Método y diseños experimentales


Contenidos

1. 1 Introducción
2. 2 Definición, características y objetivo del método experimental
3. 3 Clasificación de los diseños experimentales
4. 4 Características de los diseños unifactoriales intersujetos
1. 4.1 Diseños de grupos aleatorios
1. 4.1.1 Diseño de dos grupos aleatorios
2. 4.1.2 Diseño multigrupo

34  
 
2. 4.2 Diseños de bloques
1. 4.2.1 Diseño de bloques aleatorios
5. 5 Diseños unifactoriales intrasujetos
6. 6 Diseño factorial
7. 7 Diseño Solomon

Introducción

Fechner (1860), “Elemente der Psychophysik”, es el primero en aplicar los métodos


matemáticos a los problemas psicológicos.

Wundt (1873/74) escribió el libro “Grundzüge der Physiologischen Psychologie”. En


1879 abre el primer laboratorio de Psicología, otorgándole la consideración de ciencia,
como campo independiente y diferente de la Filosofía. La Psicología se fundó como
Ciencia cuando aplicó el método experimental a su objeto de estudio.

Definición, características y objetivo del método experimental

El método experimental (Ato, 1991) es el método científico por excelencia. Su objetivo


es la identificación de causas y evaluación de sus efectos.

Quien investiga trata de buscar la existencia de una relación de causalidad entre un


aspecto del ambiente (VI) y un aspecto de la conducta del sujeto (VD), controlando el
resto de los factores (VVEE) que podrían influir en la conducta estudiada. Manipula una
o más VI, controla las VVEE y forma grupos experimentales.

El experimento es la situación artificial creada por la persona que investiga para estudiar
el efecto de la VI sobre la VD, y puede ser:

• De laboratorio.
• De campo.

Quien investiga crea las condiciones necesarias para la aplicación de la VI en el


momento que considera más adecuado. Permite repetir las observaciones en las mimas
condiciones para comprobar los resultados y también variar las condiciones para ver las
diferencias y replicar el experimento.

El experimento piloto es el ensayo del experimento para estudiar algunos aspectos del
mismo. Se realiza a veces, antes de desarrollar la investigación.

Características del método experimental:

• Manipulación de la VI: Quien investiga determina los valores de la VI y crea las


condiciones necesarias para la presentación artificial de esos valores.
o Importante: Al menos una de la VI tiene que ser de manipulación
intencional. Cuando las variables sólo permiten la manipulación por
selección de valores (edad, sexo, inteligencia...), tendríamos que emplear
otro método como el ex post facto.

35  
 
o Tratamiento del grupo experimental: Aprendizaje de una técnica de
control de la ansiedad.
o Tratamiento del grupo de control: No enseñar dicha técnica.
• Utilización de dos tratamientos (como mínimo): Garantiza la comprobación
de la covariación de las variables.
o Un grupo: Pasará por los dos tratamientos.
o Dos grupos: Experimental (con tratamiento) + De control (sin
tratamiento).
§ Técnica experimental: Técnica de control de la ansiedad.
§ Técnica de control: Charlas.
• Aleatorización: Permite conseguir grupos equivalentes. Establece las bases para
efectuar inferencias válidas a partir de los datos experimentales. Debe usarse en
dos momentos...
§ Al asignar a las personas participantes a los grupos.
§ Al asignar los tratamientos a los grupos.
o Al ser los grupos inicialmente iguales entre sí en la variable medida, las
diferencias encontradas en esta variable después del tratamiento, se
deberán a dicho tratamiento, siempre que las diferencias encontradas
sean mayores que las esperadas si sólo hubiera intervenido el azar.
o Asignación aleatoria de los sujetos a los grupos, así como de los
tratamientos a los grupos.
• Control de las VVEE: Acción directa y manipulativa de quien investiga sobre la
VI y las VVEE que pueden influir sobre la VD, distorsionando el efecto de la
VI. Permite concluir que los cambios encontrados en la VD son ocasionados por
los diferentes valores de la VI. Es más complicado en experimentos de campo.
o Mediante: Aleatorización, no información al grupo de control de lo que
aprende el grupo experimental.

El objetivo del método experimental es analizar relaciones casuales entre las variables
(causalidad). Estudiar los cambios registrados en la VD como producto de los diferentes
valores de la VI.

Condiciones para que se pueda inferir una relación de causalidad (Kenny, 1979):

1. Contingencia temporal entre las variables: La variable causa (VI) debe preceder
temporalmente a la variable efecto (VD).
2. Correlación o covariación entre ellas: Un cambio en los valores de la primera
conlleva un cambio proporcional, directo o inverso, en los valores de la segunda
(excepto si la VI no influye en la VD).
3. No espuriedad: La responsabilidad de la covariación no puede ser atribuida a
otras variables.

En definitiva, quien investiga tiene que:

• Manipular la VI.
• Establecer un orden temporal entre las variables.
• Eliminar el efecto de las VVEE.

El diseño de un experimento consiste en la estrategia concreta a seguir para realizar un


experimento. Supone la operativización de los requisitos del método experimental.

36  
 
Clasificación de los diseños experimentales

Según el número de variables, los diseños experimentales pueden ser:

• Diseños experimentales univariados


o Estudian una VD. Se clasifican, a su vez, según el número de VI:
§ Diseños experimentales univariados unifactoriales: Manipulan
una VI.
§ Intersujeto.
§ De grupos aleatorios.
§ Dos grupos.
§ Multigrupo.
§ De bloques.
§ Bloques al azar.
§ Cuadrado latino.
§ Grupos apareados.
§ Intrasujeto.
§ Mixtos.
§ Diseños experimentales univariados factoriales: Manipulan más
de una VI.
§ Intersujeto.
§ De grupos aleatorios.
§ De bloques.
§ Intrasujeto.
§ Mixtos.
• Diseños experimentales multivariados
o Estudian más de una VD.

Características de los diseños unifactoriales intersujetos

Son diseños sobre grupos formados por diferentes sujetos que estudian el influjo de una
sola VI sobre una VD en dos o más grupos equivalentes.

Diseños de grupos aleatorios

Se basa en la equivalencia inicial de los grupos. Consiste en formar grupos


aleatoriamente y asignarles el tratamiento también de forma aleatoria. Puede ser de dos
grupos o multigrupo.

Diseño de dos grupos aleatorios

Se suelen utilizar...

• Para contrastar hipótesis muy sencillas.


• Cuando sólo nos interesa estudiar la magnitud del efecto de la VI sobre la
conducta del sujeto.

Tipo I: Grupo experimental (valor de la VD ≠ 0, con tratamiento) + Grupo de control


(valor de la VD = 0, sin tratamiento).

37  
 
Tipo II: Dos grupos experimentales (valores de la VD ≠ 0, ambos con tratamiento).

Diseño de dos grupos aleatorios con medida postratamiento

Pasos a seguir:

1. Selección de una muestra (preferiblemente aleatoria) suficientemente grande


para que actúe el azar.
2. Asignación aleatoria de los sujetos a los dos grupos. Asignación aleatoria del
tratamiento a cada grupo. Aplicación del tratamiento y medida de la conducta de
los sujetos de los dos grupos. Puede hacer dos grupos experimentales o uno
experimental y otro de control.
3. Análisis de los datos obtenidos de la forma más adecuada (comparación de
ambos grupos). Según el libro, esto se estudiará en la asignatura “Diseños de
investigación”.
4. Extracción de conclusiones, generalización de los resultados y redacción del
informe.

Este diseño presenta las siguientes ventajas:

• Equivalencia de los grupos antes de aplicar el tratamiento (por asignación


aleatoria de los sujetos a los grupos).
• Control sobre algunas amenazas de validez interna, porque pasa poco tiempo
desde la aplicación del tratamiento hasta la aplicación de la conducta.
o Historia.
o Maduración.

Y los siguientes inconvenientes:

• Amenazas a la validez interna: (muestra pequeña o asignación no aleatoria)


o Instrumentación.
o Selección diferencial.
• Amenazas a la validez externa:
o Relacionadas con la interacción de los sesgos de selección y tratamiento
(muestra no representativa resultados no generalizables).
o Efectos reactivos de los dispositivos experimentales (por la artificialidad
de la situación experimental).

Diseño de dos grupos aleatorios con medida pre y postratamiento

Pasos a seguir:

• Selección de una muestra (preferiblemente aleatoria) suficientemente grande


para que actúe el azar.
• Asignación aleatoria de los sujetos a los dos grupos y medida de la conducta de
los sujetos de los dos grupos (medida pretratamiento, para comprobar que ambos
grupos son realmente equivalentes). Si los grupos son equivalentes, se continúa
con el proceso; si no lo son, se puede aplicar la técnica de bloqueo para
configurar los grupos y, después, continuar el experimento. Asignación aleatoria
del tratamiento a cada grupo. Aplicación del tratamiento y medida de la
38  
 
conducta de los sujetos de los dos grupos. Puede hacer dos grupos
experimentales o uno experimental y otro de control.
• Análisis de los datos obtenidos de la forma más adecuada (comparación de
ambos grupos). Comparaciones:
1. Medidas pretratamiento de cada grupo (para comprobar su equivalencia).
2. Medidas pre y post de cada uno de los grupos (para ver la influencia del
tratamiento en cada grupo).
3. Medidas postratamiento de cada grupo (para contrastar la hipótesis).
• Extracción de conclusiones, generalización de los resultados y redacción del
informe.

Este diseño presenta las siguientes ventajas:

• Equivalencia de los grupos antes de aplicar el tratamiento (por la comprobación


con la medida pretratamiento).
• Control sobre algunas amenazas a la validez interna.
o Historia
§ porque pasa poco tiempo entre las medidas pre y postratamiento
y, dichas medidas, pueden tomarse simultáneamente en ambos
grupos.
o Maduración
§ porque pasa poco tiempo entre las medidas pre y postratamiento
y, dichas medidas, pueden tomarse simultáneamente en ambos
grupos.
o Selección diferencial (casi imposible).
o Mortalidad experimental (que puede controlarse buscando al sujeto
equivalente en el otro grupo, a través de la medida pretratamiento).

Y los siguientes inconvenientes:

• Amenazas a la validez interna:


o Administración de pruebas (experimentador) (al tomar las medidas de
ambos grupos a la vez).
o Instrumentación (al tomar las medidas de ambos grupos a la vez).
o Sensibilización a la medida pretratamiento.
o Regresión estadística (cuando las puntuaciones en las medidas
pretratamiento son muy extremas).
• Amenazas a la validez externa:
o Relacionadas con la interacción entre la medida pre y el tratamiento.
o Relacionadas con la interacción entre la selección y el tratamiento.
o Artificialidad de la situación experimental.

Diseño multigrupo

Se suelen utilizar cuando, además de la magnitud del efecto, interesa precisar el tipo de
relación entre la VI y la VD.

Utiliza tres o más valores de la VI. La asignación de los sujetos a los grupos o los
tratamientos se hace aleatoriamente.

39  
 
Los grupos pueden ser todos experimentales o contemplar uno de control, sin
tratamiento o con placebo (elegido de forma aleatoria). Pueden tomarse sólo medidas
postratamiento o ambas (pre y postratamiento).

El proceso es semejante a los anteriores. Sin embargo, el análisis de datos presenta


diferencias sustantivas (debido al mayor número de grupos más medidas a comparar).

• Con medidas postratamiento: ANOVA.


• Con medidas pre y postratamiento: ANCOVA.

Su principal ventaja es que tiene menos amenazas porque se usan más valores de la VI
y, también, si se conoce la relación entre VI-VD.

Diseños de bloques

Garantizan los grupos equivalentes.

Utiliza la técnica de bloqueo y puede usarse tanto en diseños unifactoriales, como


factoriales. Minimiza la varianza error y controla la varianza sistemática secondaria.

La variable de bloqueo (VB) se mide antes de formar los grupos, para asegurar su
equivalencia. La medida pretratamiento se toma una vez formados los grupos, para
comprobar que son equivalentes.

VB ≠ Medida pretratamiento

Su principal ventaja es una mayor validez interna porque los grupos experimentales son
inicialmente más homogéneos entre sí que si se hubieran formado al azar.

Inconvenientes:

• Esfuerzo.
• Costes.
• Posible disminución de la validez externa debido a la cantidad de sujetos que
hay que eliminar por no encajar dentro de ningún bloque.
• Posible sensibilidad de los sujetos a la medida previa de la VD (cuando
VB=VD).

El análisis de datos se produce con las mismas técnicas que para los grupos aleatorios
independientes. Con técnicas de dos variables: Incorporando la VB como variable de
estudio a la hora de analizar los datos (ANOVA de dos factores o ANCOVA). En el
caso de los grupos apareados, una prueba de muestras relacionadas (paramétricas o no
paramétricas).

Tipos de diseños de bloques:

• Diseños de bloques aleatorios (serán los únicos que se estudiarán en esta


asignatura)
o VB: 1
o VVII: ≥ 1

40  
 
o Grupos: ≥ 2
• Diseños de bloques de cuadrado latino (no se estudiarán por su complejidad)
o VVBB: 2
o Número de bloques de cada VB = Número de condiciones
experimentales
• Diseños de bloques de cuadrado grecolatino (no se estudiarán por su
complejidad)
o VVBB: 2 ó 3
o Número de variables total (VVBB+VVII) = 4
§ 2 VVII 2 VVBB 1 VI 3 VVBB
o El número de niveles de todas las variables tiene que ser el mismo.

Diseño de bloques aleatorios

Tipos de diseños de bloques aleatorios:

• Diseños de bloques aleatorios completos


o Cada bloque constituye una réplica exacta del experimento porque dentro
de cada bloque se aplican todos los niveles de la VI.
• Diseños de bloques aleatorios incompletos
o Se aplican sólo algunas condiciones dentro de cada bloque.
• Diseño de grupos aparejados o equiparados
o Los sujetos tienen que ser idénticos (en los anteriores, bastaba con que
fueran similares). En este caso a la VB se la denomina variable de apareo
(VA) o variable equiparada. Ej: Pares de gemelos criados juntos.

Pasos para el diseño de bloques aleatorios:

1. Elegir la muestra.
2. Conocer la VE relacionada con la VD.
3. Medir la VB en todos los sujetos y decidir el número de bloques que vamos a
formar (a mayor variabilidad, mayor número de bloques).
4. Asignar aleatoriamente a cada grupo experimental el mismo número de sujetos
de cada bloque, eliminándose los sujetos restantes de forma aleatoria.

Diseños unifactoriales intrasujetos

Todos los sujetos de la muestra pasan por todas las condiciones experimentales. Cada
sujeto proporciona más de una medida de la VD.

Diseños intrasujetos = Diseños de medidas repetidas

El efecto de orden (o error progresivo) y los efectos residuales (o efectos de arrastre)


pueden aparecer cuando todas las condiciones experimentales se aplican
secuencialmente a un mismo grupo de sujetos, ya que el orden de cada tratamiento en
cada secuencia puede alterar los resultados. (Un tratamiento anterior puede afectar a uno
posterior). Constituye una AMENAZA a la validez interna del experimento que se
puede controlar con la técnica del contrabalanceo.

41  
 
Los pasos a seguir son similares a los de un diseño intersujeto, excepto en el especial
cuidado a la hora de controlar el efecto de orden, utilizando la técnica del
contrabalanceo.

Ventajas:

• Mayor control interno que cuando se usan distintos sujetos (intersujeto).


• Mayor potencia estadística.
• Permite trabajar con muestras más pequeñas para conseguir el mismo número de
observaciones.

Inconvenientes:

• Posible efecto del orden de aplicación de los tratamientos.


• Mortalidad experimental.

Análisis de datos:

• Para medidas relacionadas (si las comparamos): t de Student


• Para medidas repetidas: ANOVA de un factor

O sus equivalentes no paramétricos si no cumplen los supuestos de las pruebas


paramétricas.

Diseño factorial

Estudia la influencia simultánea de dos o más VVII (FACTORES) sobre una, o más de
una, VD.

Cada factor puede tener dos o más valores (o niveles). Cada tratamiento (o condición
experimental) consiste en la combinación de los respectivos valores de un factor con los
del otro (u otros).

Al analizar simultáneamente dos o más factores en un solo experimento se puede


estudiar:

• El efecto de cada factor por separado (como si se tratara de un diseño con una
sola VI).
• El efecto de la combinación de los niveles de los diferentes factores sobre la VD.

El experimento factorial más sencillo consta de dos factores con dos niveles cada uno:
Diseño factorial AxB

• A: número de niveles de un factor.


• B: número de niveles del otro factor.

A medida que aumenta el número de factores y el número de niveles de cada factor,


aumenta el número de tratamientos y la dificultad para realizar, controlar e interpretar el
experimento.

42  
 
Ej: Queremos ver la influencia del tipo de escenario y la ansiedad en quienes participan
de un curso (diseño factorial 2x3):

• Factores = 2.
o Escenario (con 2 niveles: virtual y presencial).
o Ansiedad (con 3 niveles: alta, media y baja).
• Número de tratamientos = 6 (2x3=6)

B1 B2 B3
A1 a1b1 a1b2 a1b3
A2 a2b1 a2b2 a2b3

Para asignar los sujetos a cada tratamiento se utiliza:

• Asignación aleatoria.
• Técnica de bloqueo.

Los diseños factoriales pueden ser:

• Intersujetos.
• Intrasujetos.

Permite estudiar...

• Efecto principal: Influencia de cada factor sobre la VD. Existen tantos como VI
haya en la investigación. Se indica mediante una expresión que hace alusión
directa al factor cuyo efecto principal se considera. En un diseño factorial AxB:
Efecto principal de A + Efecto principal de B.
• Efecto diferencial: Permite determinar entre qué niveles se dan las diferencias
que refleja el efecto principal. Se averigua comparando dos niveles diferentes de
un mismo factor. Cuando una VI sólo tiene dos niveles, no procede.
• Efecto de interacción: Aparece cuando la influencia de una VI sobre la VD varía
en función de los valores que toma la otra u otras VVII. A medida que aumenta
el número de factores, aumenta el número de posibles interacciones (porque
surgen de la combinación de los valores de cada factor con los demás). Se indica
mediante la expresión efecto de interacción, seguida del producto de las
variables que intervienen en la investigación. En un diseño factorial AxBxC:
Efecto de interacción AxB + Efecto de interacción AxC + Efecto de interacción
BxC + Efecto de interacción AxBxC.
• Efecto simple. (Este no lo estudiamos, al menos por ahora...)

Ej: Queremos ver la influencia en la conducción de las horas de sueño y el lugar de


conducción (diseño factorial 2x3).

43  
 
• VD = Número de errores al conducir en una cabina de simulación
• Factores (VVII) = 2.
o Horas de sueño (3 horas, 8 horas)
o Escenarios (ciudad, carretera, autovía)
• Número de tratamientos = 6 (2x3=6)
• Hipótesis de los efectos principales:
o La escasez de horas de sueño afecta a la conducción provocando errores.
o Los diferentes escenarios pueden provocar diferencias en la probabilidad
de cometer errores.
• Hipótesis de los efectos de interacción:
o El efecto de las horas de sueño varía en función del escenario.
o El efecto del escenario varía en función de las horas de sueño.
• Hipótesis del efecto diferencial:
o Los sujetos cometen más errores por ciudad que por carretera.
o Los sujetos cometen más errores por ciudad que por autovía.
o Los sujetos cometen más errores por carretera que por autovía.

No procede buscar diferencias entre los dos niveles de la variable “horas de sueño”
porque si existen efectos principales, la diferencia sólo puede ser entre ellos.

Ciudad Carretera Autovía


3 horas 3h- 3h- 3h-
Ciudad Carretera Autovía
8 horas 8h- 8h- 8h-
Ciudad Carretera Autovía

Pasos a seguir para realizar un diseño factorial:

1. Ver cuántos tratamientos tenemos (multiplicando los niveles de las VVII).


2. Asignar los sujetos a los tratamientos:
o Aleatoriamente.
o Mediante la técnica de bloques.

El diseño puede ser...

• Intersujeto: Aplicando todos los tratamientos a la totalidad de los sujetos.


• Intrasujeto: Aplicando cada tratamiento a sujetos distintos.
• Mixto: Aplicando unos tratamientos a los mismos sujetos y otros a sujetos
distintos.

Ventajas:

• Permite un mejor estudio del comportamiento ya que, en la vida real, se ve


influido por más de un factor
• Usa más eficazmente los recursos porque utiliza la misma muestra para evaluar
simultáneamente los efectos de dos o más factores (con la misma precisión que
en los experimentos unifactoriales).
• Permite evaluar los efectos de la interacción entre las variables.

44  
 
Análisis de datos: Varios. ANOVA o su equivalente no paramétrica (si los datos no
cumplen los supuestos)

Diseño Solomon

El diseño Solomon tiene los siguientes objetivos:

• Utiliza la medida pretratamiento para comprobar que los grupos son equivalente.
• Estudia la influencia de la medida pretratemiento sobre la VD (como si se tratase
de otra VI).
• Estudia el efecto de interacción entre la medida pre y el tratamiento.

Puede considerarse como un diseño factorial 2x2 (donde uno de los factores es la
medida pre). Combina...

• Diseño de los grupos aleatorios con medida pre y post.


• Diseño de los grupos aleatorios sólo con medida post.

El modelo básico es de 4 grupos...

• 2 grupos experimentales (uno con medida pre+post y otro sólo con medida
post).
• 2 grupos de control (uno con medida pre+post y otro sólo con medida post).

Los pasos a seguir son los siguientes:

1. Seleccionar la muestra.
2. Asignar los sujetos a los grupos (aleatoriamente).
3. Decidir aleatoriamente...
o Los dos grupos experimentales.
o Los dos grupos de control.
o Los dos grupos con medida pre (uno experimental y otro de control).
4. Tomamos la medida pre a los grupos elegidos.
5. Aplicamos el tratamiento a los dos grupos experimentales.
6. Tomamos las medidas post a los cuatro grupos.

Tiene la ventaja de poder comprobar explícitamente la posible interacción entre la


medida pre y el tratamiento.

El análisis de datos se realiza con ANOVA de dos factores o su equivalente no


paramétrico.

06. La investigación cuasi experimental


Contenidos

1. 1 Introducción
2. 2 Características de los diseños cuasi experimentales
3. 3 Notación de los diseños cuasi experimentales
45  
 
4. 4 Clasificación de los diseños cuasi experimentales
5. 5 Diseños pre-experimentales
6. 6 Diseños cuasi experimentales con grupo de control
1. 6.1 Diseños de grupo de control no equivalente
1. 6.1.1 Diseño pretest-postest con grupo de control no equivalente
2. 6.1.2 El diseño de cohortes
2. 6.2 Diseños de discontinuidad en la regresión
7. 7 Diseños cuasi experimentales sin grupo de control
1. 7.1 Diseño de retirada del tratamiento con pretest y postest
2. 7.2 Diseño de tratamiento repetido
8. 8 Diseños de series temporales interrumpidas
1. 8.1 Diseño simple de serie temporales interrumpidas
2. 8.2 Diseño de serie temporales interrumpidas con grupo de control no equivalente

Introducción

La investigación cuasi experimental proviene del ámbito educativo, donde la


investigación de ciertos fenómenos no podía llevarse a cabo siguiendo los
procedimientos experimentales (Campbell y Stanley, 1966).

En las últimas décadas, han adquirido gran protagonismo en la investigación aplicada.

Características de los diseños cuasi experimentales

• Se utilizan en situaciones en las que no se pueden asignar aleatoriamente los


sujetos a las distintas condiciones.
• Menor grado de control sobre los efectos de la VVEE que en los diseños
experimentales.
• Quien investiga puede...
o Maximizar las diferencias en la VI (la varianza sistemática primaria).
o Minimizar la varianza error.
• Quien investiga no puede...
o Controlar la varianza sistemática secundaria causada por las amenazas a
la validez interna.
• El personal investigador no tiene recursos para controlar la formación de los
grupos. La regla de asignación de los sujetos a los grupos no es aleatoria y, en la
mayoría de los casos, no es conocida. Una de las principales tareas de quien
investiga es identificar las posibles amenazas a la validez interna para tenerlas
en cuenta o neutralizarlas. Tendrá que separar por otros medios los efectos
debidos a la VI de los debidos a las VVEE que pueden influir en la VD (cuantos
más factores extraños se descarten, mayor validez tendrá el estudio).
• Mide los efectos del tratamiento sobre la VD (puede haber uno o más
tratamientos).
• Comparte la lógica del paradigma experimental que implica que, para poder
establecer relaciones causales, se tienen que cumplir las siguientes condiciones:
1. La VI debe anteceder a la VD.

46  
 
2. Debe existir covariación entre las variables.
3. Se deben poder descartar explicaciones alternativas. (Este es el punto que más
problemas plantea en este contexto, pero es crucial para poder establecer inferencias
causales)
• La investigación se lleva a cabo en situaciones donde suele darse de forma
natural la conducta objeto de estudio, por eso suele tener mayor validez externa
(aunque, como hemos visto, si validez interna sea más débil)
• Son de gran utilidad en la evaluación de programas de intervención psicológica
o social, para mejorar su planificación y control.
• Sirven para evaluar la efectividad y eficacia de los programas en diversos
ámbitos: salud, educación, bienestar y otros servicios sociales...

Notación de los diseños cuasi experimentales

Introducida por Campbell y Stanley (1966) y posteriormente adoptada por Cook y


Campbell (1979).

47  
 
Diseño: O1 X O2 O3 ¬X O4

• Grupos: 1
• Medida pretratamiento: O1
• Tratamiento: X
48  
 
• Medida postratamiento I: O2
• Medida postratamiento II: O3
• Retirada del tratamiento: ¬X
• Medida postratamiento III: O4

Clasificación de los diseños cuasi experimentales

Según Campbell y Stanley, (1966) pueden ser:

1. Diseños pre-experimentales:
o De un solo grupo, sólo con medida postest.
o Sólo con medida postest, con grupo de control no equivalente.
o De un solo grupo con medidas pretest+postest..
2. Diseños cuasi experimentales...
o Con grupo de control:
§ Con grupo de control no equivalente...
§ Pretest+postest.
§ Cohortes.
§ Discontinuidad en la regresión.
o Sin grupo de control:
§ Tratamiento repetido.
§ Retirada de tratamiento con pretest+postest.
o De series temporales interrumpidas:
§ Simple.
§ Con grupo de control con equivalente.

Diseños pre-experimentales

(Cook y Campbell, 1979)

Sirven para aproximarse al fenómeno que se investiga (para generar hipótesis), sin
olvidar que, en la interpretación de los datos, pueden existir numerosas VVEE que
llevarían a una atribución errónea del efecto de la VI sobre la VD.

No suelen permitir establecer inferencias causales razonables.

Representan los módulos básicos a partir de los que se configuran el resto de los diseños
cuasi experimentales.

• Diseños de un solo grupo, sólo con medida postest: X O


o Carece de control, por lo que no se pueden extraer inferencias causales.
• Diseños sólo con medida postest, con grupo de control no equivalente:
o Sin pretest, no podemos saber si las diferencias entre los grupos (postest)
se deben al tratamiento o a la selección diferencial (grupos no
equivalentes).
o Los resultados obtenidos no son interpretables en términos de causalidad.
• Diseños de un solo grupo con medidas pretest+postest: O1 X O2
o No podemos asegurar que los cambios (postest) se deban al efecto del
tratamiento.

49  
 
o Existen numerosas amenazas a la validez interna: historia, regresión
estadística, maduración, administración de test, instrumentación...
Cuantas más descartemos, más podremos considerar que el diseño es
interpretable (muy difícil).
o Útil para sugerir hipótesis de cara a futuras investigaciones. (Más
“rigurosas”)

Diseños cuasi experimentales con grupo de control

Diseños de grupo de control no equivalente

La regla de asignación a los grupos no es conocida porque se trabaja con grupos ya


formados.

Aunque se trabaja con grupos ya formados, quien investiga tratará de seleccionar grupos
lo más equivalentes posible, intentando que no influyan VVEE que pongan en peligro
una interpretación unívoca de los resultados.

La lógica dice que si el tratamiento a tenido efecto, las diferencias entre los grupos
(postest) serán mayores que las que pudieran existir inicialmente entre ellos (pretest).

Diseño pretest-postest con grupo de control no equivalente

Uno de los más utilizados en Ciencias Sociales.

Similar al diseño experimental de dos grupos aunque, aquí, los grupos ya están
formados (no poseen la equivalencia inicial que se obtiene al asignar aleatoriamente los
sujetos a los grupos). La medida pretest nos indicará las diferencias existentes antes de
introducir el tratamiento.

La asignación del tratamiento a uno u otro grupo es controlada por el personal


investigador.

Podemos encontrar diversos patrones de resultados sobre los que hay que analizar las
amenazas a la validez interna.

50  
 
• Instrumentación: Posible en los resultados 1 a 4. Difícil en el 5.
• Regresión estadística: Posible en los resultados 1 a 4. Difícil en el 5.
• Interacción selección x maduración: Posible en los resultados 1 y 2. Difícil en
los resultados 3 a 5.
• Interacción selección x historia (historia local): Posible en los resultados 1 a 5.

El resultado 5 es el más susceptible de interpretación en términos causales porque


muestra un cambio de tendencia, de forma que el grupo que recibe el tratamiento tiene
puntuaciones más bajas en el pretest que el grupo de control y más altas en el postest.

El análisis de datos se realiza con control estadístico podemos determinar la influencia


de la VE sobre la VD. ANCOVA

El diseño de cohortes

El cohorte es el grupo de personas que pertenecen a algún tipo de institución (formal o


informal) sometidos, durante un período de tiempo, a las mismas circunstancias. Van
cambiando de un nivel a otro en dichas instituciones.

Muy útil en investigaciones del ámbito educativo. Ej: Primera promoción de estudiantes
que vive una reforma educativa.

Tiene las siguientes ventajas:

51  
 
• Poder estudiar cómo un determinado acontecimiento afecta a un grupo (cohorte
experimental) y compararlo con otro que no vivió dicho acontecimiento (cohorte
de control).
• Grupos fácilmente comprables, aunque no se llegue a la equivalencia conseguida
con la aleatorización (no se puede descartar definitivamente la amenaza de
selección). Permite establecer inferencias causales razonables (siempre
evaluando si existen efectos de VVEE que interfieran en los resultados).
• Como los grupos pertenecen a instituciones, el acceso a la información suele ser
mejor porque existen numerosos archivos, registros...

Diseños de discontinuidad en la regresión

Este diseño tiene la ventaja de que permite establecer hipótesis causales con más
garantías porque la regla de asignación a los grupos es conocida (alto grado de validez
interna). Las personas van a un grupo u otro en función del pretest (C = Puntuación de
corte a partir de la que unas personas se asignan al grupo de control y otras al grupo
experimental).

Su nombre viene de calcular una recta de regresión a partir de las puntuaciones


obtenidas (pretest+postest).

Fig. (a): Tratamiento sin efecto.

Fig. (b): Tratamiento con efecto (discontinuidad a partir del punto de corte “C”).

Como medida pretest, debe poder aplicarse una variable continua (en función de la que
se formarán los grupos).

En la práctica, se utiliza poco porque la asignación a las condiciones no siempre se


puede hacer de acuerdo a un único criterio. Suele utilizarse en...
52  
 
• Educación: Para valorar sistemas educativos.
• Medicina: Para probar la efectividad de un medicamento.

Conocer la regla de asignación permite descartar algunas AMENAZAS a la validez


interna, otras como la interacción entre tratamiento y maduración, no.

Diseños cuasi experimentales sin grupo de control

A veces no es posible disponer de un grupo de control (por razones prácticas y/o éticas).
Tratamiento médico Tienen menos potencia para justificar inferencias causales que los
diseños con grupo de control (menor validez interna). Algunos son más aconsejables
como parte de diseños más complejos que como diseños independientes.

Diseño de retirada del tratamiento con pretest y postest

O1 X O2 O3 ¬X O4

Con la retirada del tratamiento, quien investiga, trata de crear unas condiciones que
ejerzan la función del grupo de control. Ej: Secuencia experimental: O1 X O2 //
Secuencia de control: O3 ¬X O4 (Vigilancia policial en barrio conflictivo).

Sólo puede aplicarse cuando el efecto inicial del tratamiento es transitorio.

El tratamiento es efectivo cuando las diferencias entre O1 y O2 están en dirección


opuesta a las diferencias entre O3 y O4.

Posibles efectos del tratamiento entre O2 y O3 (aunque siga presente):

• Incremento.
• Mantenimiento.
• Disminución.

Tras la retirada del tratamiento debe haber un cambio apreciable.

Presenta siguientes inconvenientes:

• Se necesitan muestras grandes y medidas muy fiables.


• A veces, la retirada del tratamiento puede plantear problemas éticos y/o
frustración.
• Puede producirse una alta mortalidad experimental.
• Las observaciones deben hacerse a intervalos de tiempo iguales para controlar
posibles cambios lineales espontáneos que tengan lugar dentro de un período de
tiempo dado.

Diseño de tratamiento repetido

O1 X O2 ¬X O3 X O4

53  
 
Se dispone de un único grupo en el que el personal investigador introduce, retira y
vuelve a introducir el tratamiento, en diferentes momentos. La aplicación del
tratamiento tiene que correlacionar con cambios en la VD.

Sólo puede aplicarse cuando el efecto inicial del tratamiento es transitorio.

Resultados más interpretables:

• O1 difiere de O2.
• O3 difiere de O4.
• O3 - O4 difieren en la misma dirección que O1 - O2.

Presenta las siguientes amenazas:

• Maduración cíclica (diferencias por el momento de registro y no por el efecto


del tratamiento): Posible.
• Historia: Poco probable. Sería mucha casualidad que un suceso externo
produjera el mismo cambio que la introducción, retirada y reintroducción del
tratamiento.

Diseños de series temporales interrumpidas

Toman varias medidas de la VD, antes y durante el tratamiento. Se realizan registros


periódicos.

Para su análisis hay que saber en qué momento se introduce el tratamiento. Si es


efectivo, las observaciones posteriores mostrarán un cambio en la serie.

Son frecuentes en:

• Estudios sociales.
• Estudios educativos.
• Estudios sanitarios.
• Evaluación de programas.

Diseño simple de serie temporales interrumpidas

O1 O2 O3 O4 O5 X O6 O7 O8 O9 O10 (Metadona)

54  
 
Requiere un solo grupo.

Es similar al diseño pretest-postest, pero se toman varias medidas antes y después de


introducir el tratamiento.

El efecto del tratamiento se aprecia por la variación de la tendencia de la VD. Si el


tratamiento es efectivo, dicha tendencia cambiará.

Posibles amenazas a la validez interna:

• Maduración: Se puede controlar evaluando la tendencia pretratamiento


(representando las observaciones anteriores al mismo).
• Cambios cíclicos: El estudio de la serie temporal permite detectar y controlar su
efecto (ventaja respecto a un diseño pretest-postest en el que podría darse de
forma encubierta).
• Regresión estadística: Puede controlarse estudiando la tendencia pre.
• Instrumentación: Se puede controlar utilizando siempre el mismo procedimiento
de registro.
• Historia: Es la amenaza más difícil de controlar. Podría hacerse...
o Acortando los intervalos temporales entre las medidas.
o Aumentando el número de observaciones.
o Midiendo simultáneamente las VVEE que pudieran influir en la VD,
antes y después del tratamiento.
o Evaluando el efecto de la retirada del tratamiento (sólo si éste es
reversible).

Diseño de serie temporales interrumpidas con grupo de control no equivalente

Añadir un grupo de control es la mejor forma de controlar las amenazas a la validez


interna.
55  
 
Su punto fuerte y, a la vez, su principal dificultad es encontrar un grupo de control lo
más semejante posible al experimental.

07. Diseños de caso único


Contenidos

1. 1 Introducción
2. 2 Orígenes de la investigación de caso único
3. 3 Estructura básica de los diseños de caso único y clasificación
4. 4 Estudio del efecto del tratamiento en los diseños de caso único
5. 5 Modelo básico A-B
6. 6 Diseño A-B-A o diseño de retirada
7. 7 Extensión del diseño A-B-A
1. 7.1 Diseño A-B-A-B
2. 7.2 Diseño B-A-B
8. 8 Diseño de cambio de criterio
9. 9 Diseños de línea base múltiple

Introducción

Los diseños de caso único o replicación se caracterizan por el registro sucesivo a lo


largo del tiempo (sesiones, días, semanas, etc.) de la conducta de un caso único o de un
grupo pequeño, antes, durante, y en algunos casos, tras la retirada del tratamiento, en
situaciones muy controladas, sin utilizar datos promediados, y utilizados en
investigación básica como en la aplicada (psicología clínica) de carácter no terapéutico,
de diagnóstico y evaluación, y terapéutico y de intervención (Kratochwill, 1992).
Históricamente han contribuido a los estudios de casos y al análisis experimental de la
conducta.

Permiten el estudio intensivo de la conducta en situaciones controladas lo que posibilita


investigar las causas que afectan a la variabilidad de la conducta, descartar posibles
VV.EE., y estudiar el efecto del tratamiento, adaptando el diseño a utilizar en función
de la naturaleza de los datos, averiguar la causa de los cambios, consiguiendo una
mayor validez interna.

Características de los diseños de caso único (Barlow y Hersen, 1976+1988) o de


replicación intrasujeto (Gentile, Roden y Klein, 1972):

• Registro sucesivo a lo largo del tiempo de la conducta de un caso único (N=1) o


un grupo pequeño (N>1) antes, durante y, en algunos casos, después del
tratamiento, en situaciones muy controladas.
• No utilizan datos propmediados.
• Manipulan la VI (como los diseños experimentales de grupo).

Son utilizados en:

56  
 
• Investigación básica: la lógica dice que si un fenómeno es lo suficientemente
básico, se producirá de forma similar en todas las personas.
• Investigación aplicada: en Psicología Clínica, ámbito educativo y evaluación de
programas.

Orígenes de la investigación de caso único

Constituyen el principal antecedente de los diseños de caso único. Consisten en una


descripción detallada de casos individuales. Su propósito es el estudio intensivo de la
persona. Presentan algún tipo de manipulación de la VI.

No se establece control experimental. Numerosas amenazas a la validez interna. Quien


investiga no puede descartar las diversas hipótesis alternativas. No se pueden extraer
conclusiones válidas sobre el efecto de la intervención.

Destaca el que Watson y Rainer (1920) hicieron con un niño con una fobia clínica.

Provenían sobre todo de la psicoterapia. Cuando las personas enfermas se recuperaban,


los terapeutas:

• Tomaban nota del procedimiento seguido.


• Elaboraban hipótesis que pudieran dar cuenta de dichos resultados (Esta es la
aportación más importante de los estudios de casos).
• Lo comunicaban a la comunidad científica.

Tipos:

1. Con carácter no terapéutico: Psicología del desarrollo, Psicoligía educativa.


2. Con carácter de diagnóstico y evaluación: Se emplean varios instrumentos
psicométricos para el diagnóstico o descripción de la conducta social.
3. Con carácter terapéutico y de intervención: Se describe el curso de un trastorno
o se introduce una intervención para tratar un problema.

Skinner (en los años 30) toma medidas repetidas de la conducta de una persona en
condiciones muy controladas. Primero experimenta con animales.

Hermann Ebbinghaus, a final del s.XIX, hizo una investigación pionera en la utilización
de las estrategias de caso único (N=1). Realizó un estudio intensivo utilizándose a sí
mismo y a otros como sujetos experimentales. Empleó una larga lista de sílabas son
sentido para medir el aprendizaje y el olvido (contribución: curva de retención).

Problemas que planteaban los diseños de grupos para los que plantea soluciones (en
Psicología Clínica):

• Encontrar un número grande de personas con los mismos problemas clínicos.


• Problemas éticos (por el uso de grupos de control sin tratamiento o con placebo).
• La utilización de datos promediados, que podía oscurecer la respuesta individual
al tratamiento.

Posibilita también...
57  
 
• Investigar las causas que afectan la variabilidad de la conducta (descartar VVEE
y ver el efecto del tratamiento).
• Adaptar el diseño a utilizar, según la naturaleza de los datos. Mediante el estudio
de los patrones de conducta se puede averiguar la causa de los cambios
(consiguiendo mayor validez interna).

Estructura básica de los diseños de caso único y clasificación

Estructura básica de los diseños de caso único:

• Fase A: Se toman medidas repetidas de la VD para establecer su línea base,


hasta conseguir su estabilidad. Línea base = Período en el que se toman una
serie de observaciones de la conducta objeto de estudio, en ausencia de
tratamiento.
• Introducción del tratamiento (VI).
• Fase B: Se toman medidas repetidas de la VD durante la introducción del
tratamiento para conocer la variaciones que éste ha producido (comparación con
las medidas de la Fase A). Si existen distintos tratamientos, se usan letras
correlativas C, D, E...

Aspectos a tener en cuenta para comprobar la efectividad del tratamiento (Kazdin,


1982):

• Evaluación continuada. Observaciones repetidas durante todo el período de la


investigación.
• Establecimiento de la línea base. Informa sobre el nivel de la conducta objeto de
estudio y puede servir para predecir cómo va a evolucionar.
• Estabilidad de la conducta durante la Fase A. Para poder estudiar luego el efecto
del tratamiento. Ausencia de tendencia en los datos y variabilidad relativamente
pequeña. Número de observaciones suficientes para conseguir estabilidad
(cuantas más, más fácil será apreciar los efectos del tratamiento).
• Estudio de la tendencia o los cambios nivel de los datos.
o Tendencia: Incremento o bajada de la VD de forma sistemática.
o Cambio de nivel: Incremento o bajada de la VD de forma brusca.
• Estudio de la variabilidad de los datos. Pueden existir fluctuaciones de la
conducta del sujeto a lo largo del tiempo. Cuánto más pequeñas sean, más fácil
será detectar el efecto del tratamiento.
• Estudio de la validez interna y externa. ¿En qué medida los resultados pueden
atribuirse a la VI? ¿En qué grado son generalizables?

58  
 
Fig. a) Curva estable o Curva estacionaria. Muy apropiada para la aplicación del
tratamiento. Los datos no siguen ninguna orientación determinada. Muestran pautas de
variación mínima que se atribuyen al azar.

Fig. b) Tendencia ascendente. La curva muestra variaciones a lo largo del registro que
aumentan sistemáticamente. El tratamiento puede introducirse si se espera que su efecto
cambie el sentido de la línea base, produciendo un cambio de dirección en su tendencia.
Sería difícil atribuir al tratamiento una mejora posterior. Si la dirección de la tendencia
de la línea base coincide con la prevista por el efecto del tratamiento, deberíamos seguir
registrando la línea base hasta obtener una cierta estabilidad.

Fig. c) Tendencia descendente. La curva muestra variaciones a lo largo del registro que
disminuyen sistemáticamente. El tratamiento puede introducirse igual que en el caso
anterior.

Fig. d) Línea base cíclica, con grandes altibajos. Hay que aumentar el número de
observaciones hasta alcanzar la estabilidad.

Tipos de diseños de caso único, según el criterio de reversibilidad de la conducta:

• Diseños de caso único de reversión: Se produce una regresión en la línea base.

Registro – Tratamiento – Retirada del tratamiento – Nuevo registro (fase de reversión)

• Diseños de caso único de no reversión: Una vez introducido el tratamiento, no se


retira (porque sus efectos son irreversibles o porque no es posible ética o
prácticamente).

Estudio del efecto del tratamiento en los diseños de caso único

Análisis estadístico de los datos

• Pruebas t y F convencionales: Criticadas porque no tienen en cuenta la


dependencia de los datos.
• Modelos ARIMA (AutoRegresive Integrated Moving Average)
o Puede aplicarse incluso cuando la línea base no es estable.
o Permite comprobar las diferencias en el nivel y tendencia de los datos.

En todos los casos, el análisis estadístico de los datos ayudará a evaluar la fiabilidad de
los cambios producidos.
59  
 
Análisis visual de los datos

• Importan...
o Los datos directos.
o Los efectos de gran magnitud (perceptibles visualmente)
• Muy utilizado en...
o Psicología Clínica.
o Modificación de la conducta.
• Sólo permite detectar los efectos del tratamiento cuando son claramente notorios
(se disminuye la probabilidad de cometer error tipo I). Puede presentar
problemas cuando...
o El cambio es débil.
o La serie temporal presenta mucha variabilidad.
o Se parte de una línea base inestable.
• Los datos se representan gráficamente (abscisas: observaciones – ordenadas:
respuestas). Hay distintos patrones que indican cambios debidos al efecto del
tratamiento:
o Cambio de nivel: Desviación brusca o discontinuidad.
§ Cambio de nivel brusco. El efecto del tratamiento se detecta
fácilmente.
§ Cambio sólo temporal. Más difícil de evaluar.
§ Se produce un decaimiento con el tiempo. Más difícil de evaluar.
o Cambio de tendencia: Cambio en la pendiente. Más moderado. d), e) y
f).
o Si los cambios se producen con retardo (no en el mismo momento en que
se introduce el tratamiento) la interpretación sobre sus efectos es más
complicada.

Criterios a tener en cuenta a la hora de trabajar en el ámbito Clínico:

1. Criterio experimental: Pretende determinar si la intervención ha tenido en efecto


relevante.

60  
 
2. Criterio terapéutico: Determina la importancia de los efectos. Se tendría que
evaluar si el cambio producido en la conducta es el necesario para que la
persona pueda funcionar en la sociedad.

Modelo básico A-B

Está compuesto por dos fases:

• Fase A o LÍNEA BASE: Se toman medidas de la VD en ausencia del


tratamiento (VI).
• Fase B o FASE DE TRATAMIENTO: Se toman medidas de la VD en presencia
del tratamiento (VI).

Como norma general, la aplicación del tratamiento debe realizarse una vez estabilizada
la línea base. Se aplicará si, existiendo tendencia, se espera que el tratamiento la
cambie. De los cambios de nivel y tendencia se puede inferir que el tratamiento ha
tenido efecto. Ej: TDC - Barraca (2000) y su calvo acomplejado.

Plantea algunos problemas con respecto a la VALIDEZ INTERNA (historia,


maduración, reactividad experimental...) que pueden solventarse introduciendo una
nueva fase de retirada de tratemiento: Diseño A-B-A.

Diseño A-B-A o diseño de retirada

(Barlow y Hersen, 1988)

Es un diseño de reversión porque el tratamiento se introduce y, posteriormente, se retira.


Esta tercera fase (fase de línea base postratamiento o segunda Fase A) le hace ganar
validez interna respecto al diseño A-B.

Podemos concluir de los cambios se deben al efecto del tratamiento si después de


introducirlo se produce un cambio en la medida de la VD respecto a la línea base y, al
retirarlo, se da un nuevo cambio.

61  
 
Ej: Díaz Berciano y García Jiménez (2000) y el perro fóbico: “El método de contra-
condicionamiento aplicado a la curación de la fobia de un animal es efectivo y, además,
su eficacia se mantiene durante el período de retirada”.

Este diseño permite controlar los efectos debidos a la historia (para que los cambios se
vieran condicionados por esta amenaza, la VE tendría que correlacionar perfectamente
con la VI y esto es muy improbable), maduración y reactividad experimental
(susceptibles los cambios en la fase B, pero no los que se producen en la tercera fase).

Es de gran utilidad en la investigación básica.

En casos más complejos, puede plantear algunos inconvenientes porque, para poder
establecer una relación de causalidad, hay que retirar el tratamiento antes de conseguir
su efectividad total, con el fin de que la conducta regrese a su estado inicial. Esto
plantea problemas éticos en contextos Clínicos. ¿Quitamos la medicación a la persona
depre?

Extensión del diseño A-B-A

Veremos algunos diseños que suponen una mejora desde el punto de vista Clínico y
metodológico.

Diseño A-B-A-B

Consta de cuatro fases:

• Fase A: Línea base estable.


• Fase B: Introducción del tratamiento.
• Segunda Fase A: Retirada del tratamiento antes de conseguir su consolidación.
o Sí hay cambios: Es probable que el tratamiento (VI) sea el responsable
de los cambios en la Fase B.
o No hay cambios: Es probable que las VVEE hayan causado los cambios
en la Fase B.
o Es en esta fase es donde se establece la inferencia de relación causal
(Arnau, 1984). Como consecuencia de la retirada del tratamiento, el nivel
de conducta debería regresar al nivel inicial (Fase A).
• Segunda Fase B: Reintroducción del tratamiento. Permite comprobar la
fiabilidad del cambio producido por dicho tratamiento. Si produce un nuevo
cambio de conducta, tendríamos mayor evidencia de que la causa del cambio es
el tratamiento.

Muy utilizado en el ámbito de la investigación sobre Modificación de Conducta.

Diseño B-A-B

Es igual que el anterior, pero no se parte de la fase inicial de línea base (Fase A). En lo
que respecta a poder establecer inferencias causales, es más aconsejable la utilización
del diseño A-B-A-B.

62  
 
La ventaja sobre el diseño A-B-A es que termina en una fase de tratamiento (importante
en Psicología Clínica).

Todos los diseños de reversión (con retirada del tratamiento) presentan las siguientes
limitaciones:

1. No pueden usarse si el efecto del tratamiento es irreversible. Aprendizaje de


estrategias
2. La retirada de un tratamiento efectivo puede ser poco ética. ¿Quitamos la
medicación a la persona depre?
3. Pueden requerir muchas sesiones y períodos de tiempo muy largos.

Diseño de cambio de criterio

De gran utilidad en programas que pretenden aumentar o disminuir conductas mediante


la aplicación de un refuerzo para conseguir alcanzar un determinado nivel de conducta.
Ej: Reducción de la conducta de fumar.

Procedimiento según Barlow y Hersen (1988)

• A1 - Fase de línea base.


• B1 - Tratamiento hasta primer criterio - A2
• B2 - Tratamiento hasta nuevo criterio...

El procedimiento continúa hasta alcanzar el objetivo final del programa.

El efecto del tratamiento se comprueba en la medida en que el cambio en el criterio va


seguido por un correspondiente cambio en la conducta. Se realiza una aplicación
progresiva del tratamiento, pudiéndose considerar como una serie de diseños A-B.

Se registra la misma conducta, de forma que, las fases B de los tratamientos anteriores
sirven de línea base para el tratamiento siguiente.

Las ventajas fundamentales del diseño de cambio de criterio son:

• No se requiere la retirada del tratamiento.


• Se percibe el tratamiento sólo a partir de una breve línea base.
• Permite inferir, sin ambigüedad, la eficacia del tratamiento.

Para la aplicación del diseño de cambio de criterio son necesarios los siguientes
requisitos:

La VD debe variar simultáneamente con los cambios de criterio.

63  
 
El cambio de criterio debe producir un cambio suficientemente amplio para que quien
investiga pueda distinguir entre la variabilidad de la conducta y el efecto producido por
el tratamiento.

Diseños de línea base múltiple

Procedimiento a seguir (aunque existen algunas variantes):

• Se registran la líneas bases de varias conductas susceptibles de ser modificadas


con el mismo tratamiento.
• Se aplica el tratamiento a una de ellas (primera conducta) y se observan los
cambios provocados en la misma.
• Se aplica tratamiento a la segunda conducta y se observan los cambios...

Se continúa secuencialmente hasta que se haya aplicado el tratamiento a todas las


conductas objeto de estudio. En todos los casos, el tratamiento se aplica cuando se ha
conseguido la estabilidad de la conducta.

Si se considera cada conducta por separado, vemos que el procedimiento es como el de


un diseño A-B, en el que se fase A se prolonga en cada conducta hasta que se aplica el
tratamiento.

64  
 
Se considera que el tratamiento ha tenido efecto cuando tras su aplicación provoca un
cambio en la conducta tratada mientras que las otras permanecen relativamente estables.

Son diseños de no reversión porque se utilizan cuando no es posible (o no es


conveniente) retirar el tratamiento. Ej: Entrenamiento en habilidades sociales.

Requisitos de los diseños de línea base múltiple (dificultad: encontrar conductas que
cumplan ambos a la vez):

• Independencia de las conductas: Si se está aplicando el tratamiento a una


conducta, las otras no deben verse afectadas. Este requisito se cumple si las
líneas bases de las conductas en las que no se ha aplicado el tratamiento
permanecen estables después de la aplicación del mismo a una de ellas (si existe
covarianza entre las conductas, no se podría determinar cuál es el verdadero
efecto del tratamiento).
• Sensibilidad de las conductas a las mismas variables: Si el cambio que se
produce en la primera conducta se debe a VVEE en lugar de al tratamiento, las
otras conductas también reflejarán los cambios.

La principal ventaja es que permite estudiar diversas conductas concurrentes. Se acerca


más a las condiciones naturales, donde es habitual que se produzca una variedad de
respuestas al mismo tiempo. Este requisito se cumple si el nivel de todas las conductas
varía significativamente cuando se les aplica el tratamiento.

Presenta las siguientes variantes:

• Diseños de línea base múltiple entre conductas: El tratamiento se aplica


secuencialmente a conductas independientes de un mismo sujeto. Entrenamiento
en habilidades sociales
• Diseños de línea base múltiple entre situaciones: El tratamiento se aplica
sucesivamente a una conducta de un mismo sujeto, en situaciones distintas e
independientes (casa, trabajo, ocio...).
• Diseños de línea base múltiple entre sujetos: El tratamiento se aplica
sucesivamente a la misma conducta de varios sujetos que poseen características
similares y comparten las mismas condiciones ambientales. Similar al diseño
intrasujeto, pero con intervención persona a persona de forma secuencial,
comprobando que una mejora en comparación con la línea base del resto

08. Investigaciones ex post facto


Contenidos

1. 1 Introducción
2. 2 Características de la investigación ex post facto
3. 3 Técnicas de control
4. 4 Clasificación de los diseños ex post facto
1. 4.1 Diseños retrospectivos
1. 4.1.1 Diseño retrospectivo simple
65  
 
2. 4.1.2 Diseño retrospectivo de comparación de grupos = Diseño retrospectivo de
estudio de casos y controles
3. 4.1.3 Diseño retrospectivo de grupo único o Diseño retrospectivo correlacional
2. 4.2 Diseños prospectivos
1. 4.2.1 Diseño prospectivo simple
2. 4.2.2 Diseño prospectivo complejo
3. 4.2.3 Diseño prospectivo de grupo único
4. 4.2.4 Diseños evolutivos
5. 5 Utilización de los diseños ex post facto en la investigación aplicada

Introducción

Vamos a conocer la característica fundamental de la investigación ex post facto. El


objetivo es identificar los problemas de validez que plantea la investigación ex post
facto y conocer las técnicas de control que se pueden aplicar. Así como, distinguir entre
las estrategias de investigación retrospectiva y prospectiva, y conocer los distintos
diseños de investigación y analizar sus posibles fuentes de confusión. Y en fin, tener
una perspectiva de las posibilidades de aplicación de las investigaciones ex post facto.

La locución "ex post facto" significa "después de ocurridos los hechos".

No se puede manipular intencionalmente la VI, ni se pueden asignar aleatoriamente los


sujetos a los diferentes niveles de la VI (se selecciona a los sujetos en función de que
posean o no determinadas características). Se selecciona a los sujetos después de que
haya ocurrido la VI. Son variables asociadas a ellos y, por tanto, ya vienen dadas
(género, edad, experiencias pasadas, clase social, programa educativo, enfermedad...).
Quien investiga no tiene control sobre las variables, ni puede influir sobre ellas, porque
ya sucedieron, al igual que sus efectos.

Plantean problemas de control de VVEE, debido a la naturaleza de las variables.

Consideramos dos estrategias de investigación:

• Retrospectiva: El proceso causal ya ha ocurrido, se trata de buscar las posibles


causas que los han ocasionado (reconstruir los hechos).
• Prospectiva: Se conoce la VI pero no se han evaluado las consecuencias.

Características de la investigación ex post facto

La diferencia fundamental entre el paradigma experimental y la investigación ex post


facto está en el control. Los sujetos se seleccionan con determinados valores de la VI y
no se puede asegurar la igualdad entre los grupos respecto a otras posibles variables.

Al no haber manipulación intencional de la VI, sino selección de valores, no se pueden


establecer relaciones causales. Sólo se puede estudiar la covariación de las variables con
el fenómeno bajo estudio.

66  
 
Recordaremos que los requisitos para poder establecer relaciones causales eran los
siguientes:

1. Existencia de covariación entre la VI y la VD.


2. La VI debe anteceder a la VD.
3. Se debe poder descartar explicaciones alternativas.

En los diseños ex port facto se cumple el primer requisito y, en algunos casos, el


segundo (diseños prospectivos), pero no se cumple el tercero. Aunque se hable de VI
(predictora) y VD (criterio), la diferencia entre ambas es meramente teórica. En la
investigación ex post facto no se establecen hipótesis causales sino relacionales.

Cuando el diseño ex post facto es de comparación de grupos se formulan hipótesis en


las que se establece una relación diferencial entre los grupos. Ej: Sujetos con diferentes
niveles de inteligencia (medio y alto) sobre los que estudiamos el grado de satisfacción
laboral.

Al carecer de control sobre las VVII, se plantean problemas que afectan a la validez
interna de la investigación.

La investigación ex post facto tienen menor validez interna que el experimento, pero
gana en validez externa (porque las situaciones son más naturales y representativas). Es
de gran utilidad en el ámbito aplicado. Permite abordar cuestiones que desde el método
experimental no se podrían investigar.

Técnicas de control

Para poder llegar a establecer de forma clara la relación existente entre las variables,
deberíamos controlar las posibles VVEE que puedan interferir en los resultados.

El procedimiento a seguir, según Alvarado (2000), es:

1. Emparejamiento de los sujetos en otras variables relevantes que se sospecha que


influyen en la VD.
o Se formarían grupos de sujetos que tengan niveles iguales de esas
variables. Consiste en seleccionar, para cada grupo, sujetos con valores
iguales en la VVEE relevantes.
2. ANCOVA (Análisis de covarianza). Procedimiento estadístico que requiere
muestras representativas.
o Se realiza “a posteriori” de la recogida de datos. Permite eliminar
algunas fuentes de variación no deseada (separar el influjo de una
variable perturbadora sobre la VD, depurando así el efecto que produce
la VI sobre la VD).
3. Introducción de variables relacionadas con la VD. Se utilizan varias VVDD en
lugar de una sola. Estudio sobre depresión (VI) y absentismo laboral (VD1),
satisfacción laboral (VD2)

Clasificación de los diseños ex post facto

67  
 
En los diseños ex post facto, quien investiga selecciona una muestra de las personas que
poseen ya un valor determinado de las variables de estudio. Las posibles VVII vienen
dadas y las VVDD pueden observarse antes, después o simultáneamente a la
observación de las VVII.

Dependiendo de cuando se mida la VD se sigue una estrategia retrospectiva o


prospectiva.

Diseños retrospectivos

VD y VI ya han ocurrido. Los sujetos se seleccionan por sus valores en la VD y se


buscan posibles causas (VVII) que han ocasionado la respuesta. Si se encuentra una
covariación sistemática entre la VD y la VI se puede considerar que existe relación
entre ambas. Hay tres tipos:

• Diseño retrospectivo simple.


• Diseño retrospectivo de comparación de grupos o Diseño retrospectivo de
estudio de casos y controles.
• Diseño retrospectivo de grupo único.

Diseño retrospectivo simple

1. Se selecciona un grupo de sujetos que poseen un determinado valor de la VD.


2. Se buscan posibles explicaciones del fenómeno (VVII).

La VD sólo toma un valor. Según los postulados teóricos existentes dentro del campo
de estudio, se seleccionan las posibles VVII que pudieran explicar el fenómeno (deben
anteceder al mismo). Ej: Cáncer de mama.

Requisitos que deben cumplirse en la búsqueda de las posibles VVII:

• Que sean relevantes para explicar el fenómeno bajo estudio.


• Que antecedan a la VD.

Utilidad...

• Exploratoria si no se dispone de información sobre las variables que podrían


explicar el fenómeno.
• Funcional si el problema a investigar es demasiado complejo para poderse
estudiar con otro tipo de diseño.

Respecto al análisis de datos, si la VD sólo toma valores de ocurrencia, podemos


analizar el porcentaje de casos que cada VI comparte con la VD.

Su validez interna es muy débil porque es complicado descartar explicaciones


alternativas (diferenciar las variables relevantes de las que no lo son).

Diseño retrospectivo de comparación de grupos = Diseño retrospectivo de estudio


de casos y controles

68  
 
Consiste en comparar un grupo de sujetos seleccionados por poseer una determinada
característica (casos) con otro grupo de sujetos que no la poseen (controles). Estos
grupos se comparan con respecto a una serie de posibles VVII que se consideran
relevantes para la aparición de dicha característica.

La única diferencia entre los grupos ha de ser que uno posea la característica que
interesa investigar y el otro no (la VD toma dos valores). Deben ser equivalentes en
todos los demás factores. Esto puede controlarse mediante emparejamiento.

Respecto al análisis de datos conviene:

• Comparar las proporciones de los grupos.


• Estudiar las correlaciones entre la VD y las VVII.
• Estudiar las relaciones entre las VVII, cuanta menor relación exista entre ellas,
más sencillo será establecer una visión de conjunto.

Tiene una mayor validez interna respecto al diseño retrospectivo simple, aunque sigue
existiendo la posibilidad de numerosas VVEE que pudieran llevar a una interpretación
errónea de los resultados.

Diseño retrospectivo de grupo único o Diseño retrospectivo correlacional

Su objetivo es el estudio de las relaciones existentes entre las variables. No se


establecen comparaciones entre los diferentes niveles de la VI respecto a la VD, se
establecen correlaciones entre las variables (mientras que en los diseños anteriores,
retrospectivos simples o de comparación de grupos, el objetivo es similar al de la lógica
experimental: encontrar posibles VVII que expliquen la VD).

Si lo que se quiere estudiar es la covarianza o correlación entre la VD y la VI conviene


que todos los posibles valores de las dos variables estén bien representados. Esto se
consigue aumentando el tamaño y representatividad de la muestra. Así, interesa
conseguir que todos los posibles valores de las variables implicadas estén bien
representados en un grupo único con el que se va a trabajar.

El procedimiento es como sigue:

1. Seleccionar el grupo de sujetos que garantice la representación del rango de


valores de la VD.
2. Determinar cuáles podrían ser las VVII relevantes y medirlas en toda la muestra.

Tiene diferencias respecto al diseño retrospectivo simple:

• La VD toma diversos valores.


• Se trabaja con muestras muy grandes (máxima representatividad de la población
objeto de estudio para garantizar que el rango de valores de la VI y de la VD
esté bien representado).

El análisis de datos se realiza con correlaciones entre las variables.

69  
 
Presenta una mayor validez externa por trabajar con muestras muy grandes (mayores
posibilidades de generalización).

Respecto a la validez interna, no se puede tener garantías de que la ocurrencia de la VD


sea posterior a la presencia de las VVII.

Diseños prospectivos

Sólo la VI viene dada. Todavía no se han evaluado sus posibles consecuencias. Los
sujetos son seleccionados por poseer determinados valores de la VI cuya posible
influencia queremos investigar. Ej: Autoestima y rendimiento escolar.

Tienen mayor validez interna que los diseños retrospectivos. Hay tres tipos:

• Diseño prospectivo simple.


• Diseño prospectivo complejo.
• Diseño prospectivo de grupo único.

Nos aproximamos a una relación en la que de VI antecede a la VD, ya que esta todavía
no ha ocurrido. Seleccionamos a quienes participan por su valor en la VI y medimos la
VD.

Diseño prospectivo simple

Tenemos una sola VI y seleccionamos a los sujetos por sus valores en ella (variable de
selección de valores) formando, al menos, dos grupos, uno para cada valor.
Posteriormente se mide la VD.

Diseño similar al diseño experimental de dos grupos aleatorios, con las siguientes
diferencias:

• La VI ya viene dada.
• El control sobre las posibles VVEE es mucho menor debido a la selección.
• Limitaciones de la interpretación de los resultados (por los problemas de
control).
• Dificultad para descartar con seguridad hipótesis explicativas alternativas.

Técnicas de control:

• Emparejamiento.
• Control estadístico.
• Introducción de variables relacionadas con la VD.

Análisis de datos:

• Si la VI toma sólo dos valores: Diferencia de medidas para dos muestras


independientes.
• Si hay más de dos grupos seleccionados: ANOVA de un factor con grupos o
muestras independientes.

70  
 
Diseño prospectivo complejo

Cuando se sospecha que alguna VE puede influir en los resultados, se puede controlar
su efecto incorporándola a la investigación como VI. Estudia el efecto de más de una VI
sobre la VD.

Tiene la estructura de un diseño experimental factorial 2x2 pero, en este caso, las VI son
de selección de valores.

Hay que formar tantos grupos como combinaciones posibles se puedan realizar de los
niveles de la VI.

El análisis de datos se realiza con ANOVA de dos factores con muestras


independientes.

Tiene mayor validez interna que el diseño prospectivo simple ya que se controla una VE
que se sospecha que puede influir en los resultados. Aunque sigue teniendo problemas
de validez porque los sujetos son seleccionados por sus valores en las VVII y esto puede
dar lugar a otras VVEE asociadas a los mismos. Cuantas más variables incluyamos,
mayor validez interna, pero también más complejidad en el diseño (la formación de
grupos con todas las combinaciones posibles puede llegar a resultar irrealizable).

Diseño prospectivo de grupo único

Misma lógica que el diseño retrospectivo de grupo único, pero...

1. Seleccionar una muestra en la que estén presentes todos los valores de las VVII.
2. Se miden todas las VVII que se considera que están relacionadas con la VD que
queremos investigar.
3. Se mide la VD.
4. Se estudia la relación entre las variables.

Estudio de la influencia de las variables personales y psicosociales en el rendimiento


académico de estudiantes atletas pertenecientes a colegios privados de alumnado de
color.

Tiene una mayor validez externa porque se aumenta el número de VVII a considerar en
la investigación, pero se requiere una muestra mucho más grande.

También tiene mayor validez interna ya que primero se miden las VVII y después la
VD. Así sabemos que la VI antecede a la VD (aunque pueden seguir existiendo
múltiples explicaciones alternativas por el efecto de VVEE que no se hayan considerado
en el diseño).

Presenta una doble finalidad:

• Descriptiva: Para estudiar variables que covarían con el fenómeno de interés y


son útiles cuando el problema de investigación es muy complejo o aún se conoce
poco sobre el mismo.

71  
 
• Predictiva: Si existe un mayor conocimiento sobre el problema de investigación.
Se trabaja con todas las puntuaciones. Se pretende encontrar una función que
relaciones las puntuaciones en la variable predictora (VI) con la variable criterio
(VD).
o Mediante el análisis de regresión lineal simple, a partir de una
puntuación de la VI (X), se puede pronosticar el valor de la VD (Y).
o Mediante el análisis de regresión lineal múltiple, se pretende pronosticar
mediante más de una VI (X1, X2... Xn), el valor de la VD (Y) y
averiguar las variables que resulten mejor como predictoras.

Diseños evolutivos

Utilizan como VI la edad. OBJETO: Estudio de los cambios de la VD como


consecuencia de la edad. Muy usados en la Psicología del Desarrollo, que estudia las
diferencias en el comportamiento durante el proceso de desarrollo. Ej: ¿En qué medida
las actitudes respecto a las relaciones sexuales cambian con la edad?.

Los diseños evolutivos, al utilizar la edad como VI, pueden verse afectados por
amenazas a la validez interna relacionadas con la selección (factores de cohorte,
históricos, culturales...). Como alternativa puede introducirse una “verdadera VI”
(manipulada intencionalmente). Tendríamos así un diseño factorial con una VI de
selección de valores y una VI de manipulación intencional y podríamos estudiar los
efectos de cada variable por separado y conjuntamente.

Diseño evolutivo longitudinal

Registra datos de una misma muestra de sujetos en sucesivas ocasiones a lo largo del
tiempo. Estudia el desarrollo de las personas durante un período prolongado.

Amenazas: Al evaluarse siempre la misma muestra, se controla la amenaza de cohorte,


pero no la historia (se podría confundir el efecto de la edad con el efecto debido al
momento en el que se realiza la prueba), ni la mortalidad experimental (al requerir un
largo seguimiento, muchas personas pueden abandonar).

Análisis de datos:

• Diferencia de medidas para muestras relacionadas, cuando en el diseño sólo


tenemos dos momentos temporales de la medida de la VD.
• ANOVA de un factor con medidas repetidas, cuando tenemos medidas de la VD
recogidas en más de dos momentos temporales.

Diseño evolutivo transversal

La recogida de datos se realiza en un solo momento temporal a muestras de personas


con diferentes edades. Estudia las diferencias por edad, aunque en el ámbito de la
Psicología Evolutiva se utilizan para estudiar cambios producidos con la edad (bajo el
supuesto de que las diferencias encontradas entre los diferentes grupos de edad se deben
a los distintos momentos del proceso de desarrollo que comparten las personas
participantes). Es menos costoso porque es más limitado en el tiempo.

72  
 
Amenazas: Por su limitación temporal, se controla la amenaza de mortalidad
experimental pero, a veces, los grupos no son comparables porque, además de la edad,
pueden existir múltiples variables que podrían explicar las diferencias encontradas en la
VD (emparejamiento o introducción de variables relacionadas con la VD para mejorar
la validez interna). El efecto de cohorte (¿las diferencias se deben a la edad o a la
generación?) puede reducir la validez interna.

Análisis de datos:

• Diferencia de medidas para muestras independientes, o su equivalente no


paramétrico, si estamos estudiando sólo dos grupos de edad.
• ANOVA de un factor con grupos independientes, o su equivalente no
paramétrico, si tenemos más de dos grupos de edad.

Diseño evolutivo secuencial

• Diseño evolutivo secuencial longitudinal: Cuando, además de la edad, se quiere


estudiar el efecto de cohorte. Se realizarían comparaciones longitudinales dentro
de cada cohorte (se pueden estudiar dos o más cohortes en dos o más momentos
temporales).
• Diseño evolutivo secuencial transversal: Se establecerían comparaciones en
distintos momentos de la investigación. Más costoso que el longitudinal
(requiere más tiempo y más participantes, en ocasiones inviable) y con mayor
probabilidad de pérdida no aleatoria de participantes (lo que podría provocar
mayor sesgo); por eso no suelen usarse en Psicología del Desarrollo.

Tiene la ventaja de que si se combinan evaluaciones longitudinales y transversales, se


pueden controlar los efectos de cohortes y los efectos históricos.

Para el análisis de datos se realiza un diseño mixto o split-plot: ANOVA de dos factores
con medidas repetidas en uno de ellos (en el que los diferentes momentos temporales
son un factor de medidas repetidas y el efecto de cohorte es un factor de medidas
independientes).

Utilización de los diseños ex post facto en la investigación aplicada

Son de gran utilidad para cercarse al estudio de determinados problemas que no podrían
investigarse desde otros métodos debido a su complejidad y a la naturaleza de las
variables implicadas. Sirven para explorar y generar hipótesis que sugieran nuevas
investigaciones.

Resulta de gran aplicación en psicología clínica para:

• Establecer categorías diagnósticas o hacer predicciones sobre el diagnóstico y la


terapia.
• Hacer investigaciones epidemiológicas.

Los tipos de estudios más frecuentemente utilizados son:

73  
 
1. Estudios descriptivos: Cuando se conoce poco sobre ocurrencia, historia natural
o determinantes de una enfermedad.
o Metodología: Encuesta.
o Objetivos:
§ Estimar la frecuencia o tendencia de una enfermedad en una
población en particular.
§ Generar hipótesis etiológicas específicas.
2. Estudios etiológicos: Cuando se conoce bastante sobre la enfermedad y se tienen
hipótesis específicas.
o Objetivos:
§ Identificar los factores de riesgo para la enfermedad, estimar sus
efectos.
§ Sugerir posibles estrategias de intervención.

Otros campos de aplicación son:

• El ámbito educativo para estudiar las variables relacionadas con el rendimiento o


el éxito escolar (Auto-concepto, género, aptitud, diferencias culturales, ambiente
familiar...).
• La psicología del desarrollo (diseños evolutivos) para establecer relaciones entre
edad y utilización de determinadas estrategias. Aprendizaje, memoria, funciones
lingüísticas...

09. La encuesta
Contenidos

1. 1 Introducción
2. 2 Concepto y uso de la metodología de encuestas
3. 3 Técnicas de muestreo
1. 3.1 Definición de población, muestra y técnica de selección
2. 3.2 Muestreo probabilístico
3. 3.3 Muestreo no probabilístico
4. 4 Tipos de encuestas
5. 5 Fases de una encuesta
1. 5.1 Objetivo de la encuesta
2. 5.2 Diseño
1. 5.2.1 Cuestionario
2. 5.2.2 Prueba piloto
3. 5.3 Recogida de datos
4. 5.4 Explotación de la encuesta
6. 6 Calidad de la encuesta

Introducción

74  
 
Vamos a conocer los aspectos básicos de la metodología de encuestas para poder
planificar y llevar a cabo una investigación de este tipo. El objetivo es familiarizarse
con las técnicas de muestreo para el uso de las encuestas y saber identificar las distintas
fases para la creación de las encuestas y su clasificación.

Es necesario conocer las reglas básicas en la creación de cuestionarios y reconocer las


ventajas y desventajas de los diferentes sistemas de recogida de información.

Se trata pues de poder evaluar de forma crítica la calidad de investigaciones realizadas


mediante encuestas, así como saber interpretar sus resultados.

Las encuestas se usan principalmente en las Ciencias Sociales y de la Salud para


conocer la opinión de la población sobre determinados asuntos.

Concepto y uso de la metodología de encuestas

La encuesta es el instrumento de recogida de datos que operativiza las variables objeto


de investigación. Su construcción es clave. No es una tarea sencilla. Miden,
cuantitativamente, características de la población (objetivas y/o subjetivas) mediante un
cuestionario (conjunto de preguntas).

Lo importante está en que sean un reflejo del pensamiento colectivo o de las


características generales, en su capacidad para inferir y predecir el comportamiento,
pensamiento o sentimiento de la mayoría, en su facultad para ofrecer una visión general
de las características de toda una población. Debido a que el interés se centra en la
generalización de los resultados, las técnicas de muestro son de suma importancia.

La metodología de investigación consiste en un procedimiento de actuación reglado por


una secuencia de pasos. Supone una serie de acciones y decisiones que el personal
investigador ha de considerar para alcanzar su objetivo (para conocer el fenómeno
objeto de estudio).

El empleo de la encuesta en la investigación exige una reflexión teórica previa, por eso
hay personas que la consideran una metodología y no sólo una técnica de recogida de
datos. Se utiliza durante el proceso de investigación para la obtención y elaboración de
los datos, por lo que puede incluirse dentro de otras metodologías de investigación
(cuasi experimental y ex post facto).Incluso, desde una perspectiva multimétodo, se usa
como recurso para obtener información de los participantes acerca de su
comportamiento de modo que quien investiga puede ofrecer otras explicaciones a los
datos cuantitativos obtenidos o formular nuevas hipótesis de trabajo.

El uso de técnicas de muestreo tiene especial relevancia.

La técnica de recogida de datos (Instrumento de medida) hace referencia al


procedimiento específico para obtener los datos de la investigación. Contiene ese
conjunto de preguntas con las que se pretende obtener la información, y para cuya
elaboración también se ha seguido una serie de acciones.

La encuesta resulta adecuada para conocer las características de una población y las
relaciones entre estas características.
75  
 
Hace viable el estudio de características no directamente observables. Permite conocer
un determinado fenómeno cuando, por razones éticas o prácticas, no es posible asignar
los sujetos a las condiciones experimentales, al descubrir la posible relación existente
entre las variables que interesan en la investigación (permite establecer relaciones
correlacionales o de covariación, nunca causales). Permite generalizar los resultados a
una población a partir de una muestra de la misma.

No es inocua porque una pregunta puede modificar a la persona encuestada. Puede


existir sesgo de deseabilidad social (elegir sistemáticamente la opción de respuesta que
se considera más políticamente correcta).

No exime de considerar las cuestiones éticas que se deben tener en cuenta en cualquier
investigación. La persona debe estar informada sobre quién promueve la encuesta y los
objetivos de la misma y se debe asegurar la voluntariedad, el anonimato y la
confidencialidad.

Técnicas de muestreo

¿cómo se seleccionan los sujetos a encuestar?

Definición de población, muestra y técnica de selección

La población es el conjunto de todos los objetos que comparten una propiedad bien
determinada en función de la que se definen (comparten una característica que los
identifica). Ej: Estudiantes universitarios del sistema español mayores de 25 años.

La muestra es la parte o subconjunto de una población que representa las características


de la misma. El proceso de muestreo es básico para realizar inferencias a la población
desde la muestra con la que realizamos el estudio. Son imprescindibles las técnicas de
selección o muestreo. Ej: 100 estudiantes universitarios seleccionados aleatoriamente de
entre todas las universidades de España.

Una muestra es representativa si el subconjunto de elementos que la componen


comparan las características de la población a la que pretenden generalizar sus
resultados. Para garantizarlo, suele usarse el azar (procedimiento aleatorio o
probabilístico). Ej: Estudio de la opinión de personas viudas sobre la política económica
del gobierno. Población: 75% viudas + 25% viudos. La muestra debe tener los mismos
porcentajes para que no esté sesgada respecto a la variable sexo.

La muestra estará sesgada en caso contrario.

Los métodos utilizados para la selección de una muestra:

• No probabilístico: La probabilidad que tiene un elemento de la población de ser


seleccionado es desconocida.
• Probabilístico: Todos los elementos de la población tienen una probabilidad
conocida de ser seleccionados para formar parte de la muestra. En principio,
aumenta la probabilidad de que la muestra seleccionada sea representativa.
Existen otros factores que influyen en la representatividad...

76  
 
Respecto a su estructura, es importante para poder definir el marco del que va a ser
extraída la muestra. A mayor conocimiento del marco poblacional, menos errores en la
selección de la muestra. Ej: Censo no actualizado (cada 10 años).

Su tamaño está directamente asociado al grado de precisión que se desea obtener en la


estimación de los parámetros de la población. Según Buendía (1998), una muestra
suficiente es la compuesta por 30 elementos (o más), aunque esto no garantiza que la
muestra vaya a ser representativa de la población (si la población a investigar es muy
heterogénea o la característica de estudio tiene poca presencia en la población será
necesario aumentar o disminuir este tamaño “suficiente”).

Muestreo probabilístico

Todos los elementos de la población tienen una probabilidad conocida de ser


seleccionados para la muestra.

Técnicas de muestreo monoetápico

• Muestreo aleatorio simple (m.a.s.): Para poblaciones pequeñas. Se selecciona al


azar un número n de elementos de una población. Todos los elementos de la
población deben tener la misma probabilidad de ser elegidos y la selección de
uno de ellos no debe influir sobre la selección de otro.
• Muestreo aleatorio estratificado: La característica objeto de estudio no se
distribuye de forma homogénea en la población pero existen grupos o estratos
que sí presentan homogéneamente dicha característica (género, número de
hermanos, estado civil...), en cada uno se extrae una muestra mediante m.a.s.
o Afijación de la muestra: Distribución de las encuestas entre los diferentes
estratos en que se puede dividir la población. Criterios para llevarla a
cabo...
1. Simple: Se seleccionan el mismo número de participantes de cada
estrato.
2. Proporcional: La selección de los participantes se realiza de
forma proporcional al peso que cada estrato tiene en la población
(población = 10% zurdos + 90% diestros → muestra también).
3. Óptimo: La selección de la muestra tiene en cuenta la
homogeneidad-heterogeneidad de la población en la característica
objeto de estudio, seleccionando pocos individuos de los estratos
que sean muy homogéneos y, por el contrario, eligiendo muchos
individuos de aquellos estratos que sean heterogéneos. Problema:
saber si, en la práctica, los estratos son homogéneos o
heterogéneos.
• Muestreo por conglomerados: La muestra se obtiene partiendo de
conglomerados o grupos ya formados en lugar de hacerlo directamente de los
individuos de la población (clases de un colegio, equipos de fútbol...).

Técnicas de muestreo polietápico

Emplean de forma conjunta y sucesiva (en distintos pasos) más de un tipo de muestreo
probabilístico:

77  
 
1. Seleccionamos aleatoriamente algunos colegios de una comunidad autónoma.
2. En cada colegio, elegimos aleatoriamente entre los grupos de primer ciclo.
3. Seleccionamos tres grupos con el mismo número de niños en cada uno, según el
CI (alto, medio y bajo).

Estamos usando a la vez...

1. Muestro aleatorio simple.


2. Muestreo por conglomerados.
3. Muestreo estratificado con afijación simple.

Muestreo no probabilístico

Se desconoce la probabilidad de seleccionar cada uno de los elementos que forman la


población.

Se emplea cuando...

• No es posible extraer una muestra aleatoria porque desconocemos el total de las


unidades que componen la población, son inaccesibles o se trasladan de forma
continua.
• Hay limitaciones de recursos (temporales, personales o económicos).
• Queremos tener un primer acercamiento al problema objeto de estudio.

Su validez interna es reducida (especialmente si se usan técnicas no probabilísticas).


Los resultados obtenidos podrán describir lo ocurrido en una situación determinada,
pero no podrán extrapolarse o generalizarse a toda la población, puesto que no se puede
determinar la probabilidad de que todos los elementos de la población hayan estado
disponibles para ser seleccionados.

Para ello usaremos:

• Muestro de rutas aleatorias: Cuando no se cuenta con un listado de la población.


La persona que entrevista realiza un recorrido escogido al azar a partir de un
punto de origen en una zona y, siguiendo la ruta establecida, debe seleccionar las
unidades muestrales de forma aleatoria.
• Muestro por cuotas: Cuando la estratificación no es posible. Suele asentarse
sobre la base de un buen conocimiento de los estratos de la población y/o los
individuos más representativos o adecuados para los fines de la investigación
(semejante al muestro aleatorio estratificado, pero sin aleatoriedad). Es necesario
saber qué proporción de la población tiene determinada característica que
pensamos puede influir en el estudio y, en función de dicha característica, se
establecen unas cuotas, aunque la selección posterior de los sujetos será no
aleatoria al estar basada en el juicio de la persona encuestadora, que debe
encuestar a un número determinado de personas según las cuotas establecidas.
• Muestreo accidental, incidental o subjetivo: La selección de los elementos no se
realiza aleatoriamente, se seleccionan los sujetos fácilmente accesibles a quien
investiga. Se usa mucho en Ciencias Sociales y de la Salud. Hay varios tipos...

78  
 
o Muestro de conveniencia: Se seleccionan los casos que están disponibles
en el momento en el que se lleva a cabo el estudio. Ej: Personas
voluntarias, presentes en una estación de metro...
o Muestro de juicio (selección experta): Quien investiga selecciona la
muestra con un propósito en mente, según su idea sobre qué o quién debe
formar la muestra. Son casos atípicos.
o Muestro de poblaciones de difícil localización, muestro en cadena o bola
de nieve: Los casos iniciales identifican e incorporan de forma sucesiva
al estudio otros participantes de su red social (interesante para el
estudio).

Tipos de encuestas

Atendiendo al tipo de cobertura de la población:

• Encuestas censales: Obtienen datos de toda la población.


• Encuestas muestrales: Extraen la información de un subconjunto de la población
(una muestra).

Atendiendo a su objetivo:

• Encuestas descriptivas: Quien investiga se propone conocer y tener una


aproximación a algunas características de la población y a la variabilidad que
presenta dicha característica.
• Encuestas explicativas o analíticas: Estudian las relaciones entre las
características de la población y el grado en que se relacionan éstas con un
fenómeno determinado. Plantea una variable que se asocia con otra, por lo que
debe estar medida por una hipótesis de trabajo para identificar aquellos factores
que modifican un determinado fenómeno.

Según la estructura temporal de la investigación:

• Encuestas transversales: La medición se lleva a cabo en un único momento


temporal. Recogen información en una población definida en un único
momento. Sus resultados son generalizables a ese momento y a esa población.
Apropiadas para el estudio de características temporalmente estables. Puede
tener propósitos...
o Descriptivos. Ej: Estudios epidemiológicos (sirven para determinar el
porcentaje de personas que sufren una determinada enfermedad y las
diferencias que presenta el fenómeno en los diferentes subgrupos de
población, identificando potenciales factores de riesgo).
o Explicativos.
• Encuestas longitudinales: La medición se realiza en varios momentos temporales
(recogida de datos en dos o más momentos temporales). Analizan los procesos
de cambio y desarrollo. El paso del tiempo es el factor fundamental en dicho
proceso. La encuesta se aplica repetidamente a las mismas entidades a lo largo
del tiempo. Según sus objetivos, hay varios tipos...
o Encuestas de panel: Miden el cambio producido en los sujetos de la
muestra de modo individual a lo largo del tiempo (cambio bruto).
Evalúan los cambios midiendo a los mismos sujetos en diferentes

79  
 
momentos. Implica selección de la muestra, toma de datos inicial y las
subsiguientes tomas de datos en la misma muestra. Adecuado para
estudiar el desarrollo individual de una población con determinadas
características. Permite llevar a cabo análisis causales mejor que otras
encuestas porque permite el estudio de la secuencia temporal en que se
producen los cambios de los individuos pertenecientes a dicha población
(propósito analítico). Tiene en cuenta los efectos de maduración y
cohorte. Sus inconvenientes son los sesgos (sujetos conscientes de ser
evaluados) y la mortalidad experimental (la muestra puede variar en
términos de características poblacionales o puede perderse el contacto
con los sujetos a lo largo del tiempo).
o Encuestas de tendencias o diseños de series temporales: Miden el cambio
en el mismo tipo de población a lo largo del tiempo (cambio neto). Son
como encuestas transversales repetidas en distintos momentos
temporales pero con muestras de sujetos equivalentes, extraídos de la
población bajo estudio, pero compuestas por participantes distintos. Se
debe realizar el procedimiento de muestreo cada vez que se recogen los
datos. Permite analizar una característica específica de la población,
valorar el efecto de un programa de intervención o tratamiento, o los
cambios que se producen en una población bajo unas determinadas
condiciones. Permite estudiar las relaciones entre las variables (saber si
se mantiene constante o varía a lo largo del tiempo). No plantean
problemas de seguimiento pero puede verse afectadas por cambios
generacionales que repercutan sobre las variables de estudio.

Según la estructura poblacional:

• Encuestas sobre la misma muestra.


• Encuestas sobre muestras distintas.

Fases de una encuesta

Cómo se lleva a cabo una investigación mediante encuestas?

Cada estudio con encuesta tiene un objetivo y para su diseño es esencial considerar
dicho objetivo. Hay cuatro etapas o fases y, cada una de ellas, puede modificar a las
previas, lo que origina un movimiento de ida y vuelta.

Objetivo de la encuesta

Determina qué se pretende alcanzar con los resultados que se obtengan de la encuesta.

Debemos determinar la información que deseamos obtener sobre el tema. Para


establecer los objetivos es importante que el estudio sea dirigido mediante preguntas de
investigación, concretas y susceptibles de realizar mediante una encuesta.

La información que se desea obtener vendrá determinada por los objetivos propuestos y
determinará cuál será la población a encuestar y cómo se va a recopilar la información.

Diseño
80  
 
El diseño del estudio supone haber tomado decisiones concretas: definición de las
variables de interés, selección de la población, información que se requiere recabar y
sistema de recopilación. Se define qué tipo de encuesta será la más apropiada.

El diseño de la encuesta se refiere a la operativización de las variables (preguntas que


formarán parte del cuestionario, su construcción es un elemento clave). Si la
transformación de conceptos a preguntas no es adecuada es posible que no se estime lo
que verdaderamente se quiere valorar (amenaza a la validez y la fiabilidad).

Cuestionario

La construcción de un buen cuestionario o encuesta no es un trabajo sencillo, sobre todo


si el problema objeto de estudio es original o no hay cuestionarios elaborados para
evaluarlo.

Lo que se hace con un cuestionario es medir de modo indirecto lo que las personas
saben, opinan o juzgan acerca de algo, y esto no es una cuestión sencilla.

Dos ideas:

• Acceder a la subjetividad de las personas de modo indirecto. Estas medidas


pueden ser más o menos precisas dependiendo del grado de cumplimiento de los
principios de la medición en la configuración del instrumento.
• La elaboración de cuestionarios específicos para una investigación
(cuestionarios creados ad hoc) requiere elaboración tanto teórica como práctica.

Principios a seguir en la construcción de un cuestionario:

• Preguntas que soliciten sólo la información necesaria.


• Preguntas que sean posibles de responder.
• Preguntas que obtengan información verídica.
• Preguntas que sean contestadas.

Tipos de preguntas

• Preguntas abiertas: Exigen la elaboración de la respuesta de modo libre. Quien


investiga debe realizar un trabajo posterior de clasificación y categorización de
las respuestas.
• Preguntas cerradas o de elección: Presentan alternativas de respuestas. Son
fáciles de responder y codificar.
o De elección binaria: Dos alternativas.
o De elección múltiple o escalas de valoración: Más de dos alternativas. Se
deben categorizar las posibles respuestas antes de recoger los datos para
poder ofrecer las alternativas posibles y, además, proporcionar alguna
alternativa si la persona que responde no sabe o no contesta. Hay varios
tipos...
§ Escalas de categorías: Constan de un enunciado y un conjunto de
categorías. El sujeto se debe posicionar señalando la categoría
que considera más adecuada respecto a un conjunto dado
(frecuencia, cantidad, sentimientos...).
81  
 
§ Escala Likert: Cuando las categorías se ordenan y se emplean
para denotar el grado de acuerdo-desacuerdo con el enunciado de
la pregunta.
§ Listados: Consisten en una lista de elementos y el sujeto debe
señalar aquellos que, en su opinión, sean aplicables al objeto
sobre el que se le pregunta.
• Preguntas semiabiertas o semicerradas: Contienen distintas alternativas de
respuesta y una parte de respuesta de opinión.

Las funciones que pueden cumplir las preguntas pueden ser:

• Introducir a la persona entrevistada.


• Filtrar respuestas en las que, en función de lo que se conteste, la pregunta
siguiente tendrá sentido o no y deberá pasar a otro bloque de preguntas.

Reglas para la redacción de las preguntas:

• Simplicidad.
• Brevedad (evitar información irrelevante).
• Claridad.
• Lenguaje cuidado.
• Concisión (una idea por pregunta).

Prueba piloto

Una vez construido el instrumento es aconsejable realizar una experiencia con una
pequeña muestra de sujetos para observar cuestiones relacionadas con la aplicación del
mismo.

Una vez hemos obtenido esta información, podemos rectificar sobre nuestros pasos y
modificar, con cierta base empírica, las decisiones previas.

Recogida de datos

Modalidades:

• Cara a cara:
o Fácil de contestar.
o Evita errores debidos a la no comprensión de las preguntas.
o Permite controlar quién es realmente la persona que contesta.
o Alto coste (personal, económico y temporal).
o Requiere entrenamiento por parte de la persona que entrevista
(experiencia).
o Hay que estar geográficamente cerca de la muestra.
• Por teléfono:
o Más económica.
o Permite tratar temas más delicados (se crea un ambiente más
impersonal).
o Produce más reticencia.
o Menor tasa de participación.

82  
 
• Por correo postal:
o Mayor rapidez.
o Obtiene respuestas más honestas (mayor intimidad).
o Requiere un cuestionario muy claro.
o Falta de respuesta mucho mayor.
o Sesgo por deseabilidad social (la persona que contesta puede suponer el
propósito de estudio).
• Por correo electrónico o por internet:
o Inmediatez en el registro (además de compartir las ventajas de las
encuestas por correo postal).
o Posibilidad de emplear técnicas de corrección automáticas que
simplifican, en gran medida, el trabajo de asignar valores a las respuestas
de los sujetos para poder realizar los posteriores análisis.
o Restricción en su acceso (limitado a la gente conectada).
o Puede producir sesgo en la selección de la muestra y, como
consecuencia, en los resultados.

10. La observación
Contenidos

1. 1 Introducción
2. 2 Características
1. 2.1 Técnica específica de recogida de datos y estrategia metodológica
2. 2.2 Grados de estructuración de la situación
3. 2.3 Grados de participación
4. 2.4 Fases
3. 3 Categorización
4. 4 Muestreo y registro
1. 4.1 Qué es una sesión?
2. 4.2 Procedimientos de muestreo
3. 4.3 Procedimientos de registro
1. 4.3.1 Registro activado por unidades de tiempo (RAUT)
2. 4.3.2 Registro activado por transiciones de conductas (RAT)
5. 5 Métrica de la observación
6. 6 Control de calidad de los datos
1. 6.1 Estimación de la fiabilidad
2. 6.2 Fuentes de error y formas de control en la observación
1. 6.2.1 El observador
2. 6.2.2 El sujeto de estudio: la reactividad
3. 6.2.3 Sistemas de categorías
7. 7 Análisis de datos

83  
 
Introducción

La observación se basa en la capacidad de percepción y de clasificación del ser humano.

Con que objetivo se apliquen estas capacidades y como se apliquen nos va permitir
diferenciar la observación ordinaria, que todos realizamos de forma cotidiana, de la
observación científica.

La observación científica debe de ser capaz de proporcionar conocimiento científico, es


decir, objetivo, replicable, fiable y válido para responder a la pregunta planteada o
aumentar nuestra comprensión del problema de estudio.

En las últimas décadas la metodología observacional se ha consolidado como una


alternativa metodológica imprescindible para aquellas áreas de la Psicología que
consideran como objeto de estudio el comportamiento espontáneo en sus contextos
naturales.

Pero si al investigador lo que le interesa es conocer como es o cómo se modifica el


comportamiento del individuo manipulando y controlando ciertas variables de la
situación, para poder identificar relaciones de causalidad, entonces utilizará la
metodología experimental.

La metodología observacional puede ser muy útil para estudios de gran complejidad
pero también para otros que son sencillos.

Características

Técnica específica de recogida de datos y estrategia metodológica

La observación científica se puede entender como la forma de captar la realidad,


aplicada con rigor y sistematicidad. La aportación metodológica de la observación a la
investigación científica es doble: como técnica específica de recogida de datos y como
estrategia metodológica.

La observación como técnica de recogida de datos: puede ser la técnica de medida de la


VD de un diseño experimental, de un cuasi experimental o de un ex post facto. La
información que proporciones debe de ser fiable, válida y útil a los objetivos del diseño.

Se puede entender la observación como una estrategia metodológica global, que tiene
un ámbito de aplicación idóneo y unas características que determinan las decisiones de
planificación y procedimiento de estudio en coherencia con sus objetivos. Algunos
autores hablan también de método observacional. Este método se caracteriza por la
ausencia de intervención del investigador en el fenómeno de estudio y la no restricción
de las respuestas de los participantes, a través de la tarea o instrumentos de evaluación,
pues el objetivo es el estudio del comportamiento espontáneo.

Anguera (1988) define la metodología observacional como un procedimiento


encaminado a articular una percepción deliberada de la realidad manifiesta con su
adecuada interpretación, captando su significad, de forma que mediante un registro
objetivo, sistemático y específico de la conducta generada espontáneamente en un
84  
 
determinado contexto y una vez que se ha sometido a una adecuada codificación y
análisis, nos proporcione resultados válidos dentro de un marco específico de
conocimiento.

La estrategia de investigación observacional, es aplicable con diversos grados de


intervención en el diseño y participación en la situación de observación por parte del
investigador, de tal modo que ambos aspectos se pueden plantear como criterios de
clasificación (no excluyentes entre sí) de formas de aplicación de la observación.

Grados de estructuración de la situación

Observación natural: la observación del comportamiento de los participantes de estudio


es completamente natural, en su entorno o contexto habitual, sin modificación
provocada por parte del investigador.

En el caso del que el investigador determinara algunos elementos de la situación y por


tanto los elementos estimulares que inciden sobre el sujeto a observar. Este caso sería
una observación estructurada (un ejemplo sería la situación para la evaluación del apego
en niños pequeños, diseñada por Ainswoth 1963).

Grados de participación

Se refiere al grado de participación del investigador y se pueden distinguir entre:

• Observación externa o no participante: el observador es ajeno a la situación en


estudio, con muy escasa o nula interacción con los participantes estudiados.
Estas condiciones de observación, facilitan la objetividad del observador y sus
decisiones de registro y evitan los riesgos de interferencia en el fenómeno de
estudio.
• La observación participante: el observador se integra en la dinámica del
fenómeno en estudio, participando en las actividades del grupo o del individuo
para establecer contacto directo con la realidad. Muy utilizada en Antropología
Pedagogía y Sociología, para profundizar en la compresión de los problemas de
estudio. Plantea riesgos e subjetividad en las decisiones de registro del
observador al estar implicado en la situación.
• La autoobservación: el propio individuo bajo estudio es el registra su conducta.
Es muy útil para registro de conductas encubiertas o con gran implicación de
estados emocionales (decisiones, ansiedad, deseos). Ser a la vez sujeto activo y
objeto de observación plantea dudas sobre la validez de los datos.

Fases

En la observación como en cualquier otra forma de investigación se comienza con el


planteamiento del problema, para continuar con la formulación de hipótesis, definición
operativa de las variables, elección de instrumentos de medida, y evaluación de la
calidad métrica, selección de la muestra de participantes, recogida de datos, análisis de
datos e interpretación de los resultados. Pero hay que tener en cuenta que algunas
decisiones son específicas de este tipo de metodología. Estas decisiones afectan a
aspectos como: qué observar (se resuelve a través de la elección, creación del sistema de
categorías; cuestiones de muestreo (que en esta metodología no sólo se refiere a quien

85  
 
observar, sino a cuánto tiempo, donde y cuando observar); a la evaluación de la calidad
métrica de los datos (basado en el estudio de la fiabilidad); y en el análisis de los datos
(que puede necesitar técnicas específicas adecuadas a la naturaleza de los mismos y a
los objetivos de la investigación, como el análisis secuencial).

Categorización

La identificación clara y objetiva de las conductas o elementos a observar, a través de su


descripción o definición por parte del investigador, constituye un paso fundamental en
el proceso de categorización.

A través de él podemos llegar a crear un potente instrumento para la observación: el


sistema de categorías. Este es un pilar fundamental de la investigación que puede
implicar horas de lectura de documentación para el estudio teórico del problema, horas
de observaciones informales previas, etc.

El sistema de categorías nos permite enfrentarnos a la tarea de registro, teniendo


seleccionadas y definidas las conductas relevantes para nuestro estudio y en las que el
observador deberá focalizar su atención. Tiene que ser puesto a prueba, revisado y
adaptado a las necesidades del nuevo estudio. Los investigadores suelen crear sus
propios sistemas de categorías.

Para crear un sistema de categorías específico podemos recurrir a dos vías


fundamentales para iniciar el proceso de categorización:

• La bibliografía existente sobre el tema, tanto de los modelos teóricos


explicativos como de investigaciones anteriores.
• Informaciones informales o sistemáticas preliminares, que más que verla como
alternativa debería verse como complementaria de la bibliografía.

En ellas el investigador se enfrenta a situaciones similares a las definitivas, y teniendo


presente el propósito del sistema de categorías a crear, anotará las conductas que
aparecen y las condiciones en las que ocurren. Con esta información puede elaborar una
primera lista de elementos y rasgos que estudiará en sus posibles agrupamientos o
desgloses y someterá a prueba las veces que considere necesario hasta llegar a un
sistema de categorías que resulte completo y claro, y que servirá para realizar la
observación sistematizada que proporcionará los datos del estudio.

En definitiva, un sistema de categorías intenta establecer un sistema de clasificación de


comportamientos y eventos que, bajo criterios teóricos, contribuye a diferenciar el
comportamiento de los participantes. Es decir, cuando un investigador pretende estudiar
la agresión- un constructo- lo debería definir en términos observables (aspectos
fisiológicos, atencionales y motores del individuo). En la observación es lo mismo,
tenemos un amplio espectro de indicios –comportamientos- que debemos clasificar
creando y definiendo categorías.

Hablamos de sistemas de categorías cuando disponemos o hemos definido dos o más


categorías para la observación y el registro de un mismo fenómeno desde una
determinada dimensión de análisis. Cada sistema de categorías debe responder a las

86  
 
exigencias de Exhaustividad y Mutua Exclusividad (lo que se conoce como medición
EME).

Exhaustivo porque debe existir una categoría para cada una de las conductas relevantes
posibles que puedan aparecer en la situación de observación y en el nivel de análisis del
sistema, de forma que esta tenga validez para alcanzar los objetivos del estudio y que no
existan vacíos o lagunas en el registro.

Mutua exclusividad se aplica a las categorías porque estas deben estar definidas sin
ambigüedades, de manera que cada conducta observada sólo pueda ser asignada a una
categoría o código de cada dimensión de análisis.

Las categorías se pueden definir atendiendo a elementos fácilmente perceptibles o a


criterios que exigen mayor grado de inferencia por parte del observador. Algunos
autores insisten en la necesidad de que las definiciones de las categorías se ajusten a
elementos físicos observables directamente y que presenten límites claros, y consideran
que aspectos como la intencionalidad o la función de la conducta deben ser evitados en
los estudios de observación.

Definiciones:

• Agresión física (AF): golpear, empujar, dar patadas, etc. sin que el receptor de
esta conducta responda en los mismos términos (actitud pasiva, protesta pero no
agrede).
• Agresión verbal (AV): insultar, molestar con comentarios, hacer burla,
ridiculizar sin que el receptor responsa en los mismos términos (actitud pasiva
abandono del grupo o protesta pero sin agredir).
• Amenaza (AM): verbal o física mirada fija o brazo en alto, amago de patada el
receptor no responde en los mismos términos (actitud pasiva o huida).
• Arrebatar objetos o lugares (AR): quitar un objeto o sitio a otro de forma
violenta o no, sin que el otro responda mostrando resistencia.
• Órdenes (OR): decirle a otro lo que tiene que hacer de forma imperativa, el otro
puede obedecer (OR) o desobedecer (OR-). Decisiones (DC); decirle a otro lo
que hay que hacer de forma indirecta, como propuesta. El otro puede acatar la
decisión (DC) o no acatarla (DC-).
• Persuasión (PS): tratar de convencer a otro de que haga algo sin obligarle física
ni verbalmente. El otro puede dejarse persuadir (PS) o no dejarse persuadir (PS-
).
• Seguimiento (SG): moverse en la misma dirección y detrás de otro niño que
inicia la acción. Debe haber desplazamiento físico, no sólo seguimiento en el
sentido de aceptar una propuesta o de repetir lo que el iniciador hace. Tampoco
se registra como seguimiento la conducta que se produce en el caso de que el
indicador ordene al sujeto que lo siga. Es un seguimiento voluntario.
• Imitación (IM): hacer lo mismo que otro niño voluntariamente, ya sea igual o
con alguna modificación. No debe confundirse con hacer burla, ya que se
clasificaría dentro de la categoría de agresión verbal.
• Contactos amistosos (CA): dirigirse a otro niño, estableciendo contacto físico en
forma de abrazos. Caricias, besos, palmadas en la espalda y en general cualquier
contacto físico con otro niño que no sea agresivo ni fortuito (a de ser
intencionado).

87  
 
• Donación de recursos (DR): dar u ofrecer a otro niño un objeto o cederle el sitio
voluntariamente. No incluye la respuesta a una orden ni a la conducta de
arrebatar por parte de otro niño.
• Peleas físicas (PF): agresiones mutuas con contacto físico entre dos ponentes por
la posesión de un objeto o un lugar, o porque un niño responde a la agresión de
otro en los mismos términos (es decir, sería una reacción de insumisión a las
conductas AR o AF de otro.

Se puede observar que se hace una lista de posibles conductas que siendo distintas
pueden tener un significado común, por lo que se les incluye en la misma categoría y se
les aplica la misma etiqueta y el mismo código "AF". Pero también se garantiza la
misma exclusividad de esta categoría con otra cercana y con la que podrían plantearse
solapamientos (peleas físicas) ya que sólo se incluiría en la categoría de "agresión
física"cuando no hay respuesta en los mismos términos por parte del que recibe la
agresión. Si una agresión física es respondida con otra, se registra como pelea,
indicando quien la inicia y quien responde.

La exhaustividad del sistema está relacionada con lo que es relevante para el programa
de estudio. Un sistema cumple la condición de exhaustividad si se tiene en cuenta los
objetivos originales para los que fue diseñado, ya que esta condición está directamente
relacionada con el criterio de relevancia de cada investigación.

La mutua exclusividad es fundamental para obtener datos objetivos y fiables de manera


que una conducta determinada pueda ser inequívocamente asociada a una categoría a
partir de las propias definiciones del sistema, independientemente de quien sea el
observador .Es decir, en una unidad básica de tiempo (un segundo) sólo debería
identificarse una categoría conductual en el comportamiento del individuo. Esto es
cierto pero si sólo estamos pensando en una única dimensión de análisis.

La conducta puede tener muchos componentes que se pueden dar a la vez. Cuando una
persona se dirige a otra puede estar emitiendo una conducta verbal con un determinado
contenido (interrogativo, exclamativo, imperativo, etc.)A la vez puede presenta una
determinada expresión emocional (cara de alegría, tristeza, etc.) a la vez realiza una
determinada conducta visual (mira a la cara, a cualquier otro lado, mirada perdida, etc.)
y a la vez utiliza gestos de comunicación no verbal (señala con el dedo, eleva los
hombros, etc.). Cada uno de estos aspectos de su conducta constituye una posible
dimensión de análisis. Hemos visto como en cada uno de estos aspectos o dimensiones
de análisis se contemplaban varias opciones o manifestaciones diferentes (como las
distintas expresiones emocionales, alegría, tristeza, miedo) estas diferentes
manifestaciones posibles pueden llegar a definirse como categorías componentes de un
sistema y deberían ser mutuamente excluyentes y exhaustivas para determinada
dimensión de análisis.

Si en un mismo estudio queremos observar la conducta varias teniendo en cuenta


simultáneamente varias dimensiones de análisis a la vez, podemos organizar un sistema
de categorías más complejo compuesto de distintos subsistemas, uno por cada
dimensión de análisis de forma que cada uno cumple la condición EME en sí mismo.

EME= (cumplir las exigencias de exhaustividad y mutua exclusividad)

88  
 
Otros sistemas de categorías complejos pueden estar compuestos por subsistemas de
categorías distintos para los diferentes participantes de la interacción.

Muestreo y registro

Las observaciones están limitadas a un periodo de tiempo. El investigador trabaja


(registra y analiza) con una muestra de la conducta del individuo o del grupo en estudio,
que debe reflejar las características y la dinámica real de su conducta (muestra
representativa).

Esta representatividad dependerá de la validez del sistema de categorías para captar los
aspectos más relevantes del problema, pero fundamentalmente dependerá de la
adecuación de las decisiones del muestreo y registro, y de su coherencia con los
objetivos de la investigación. Muestreo y registro están estrechamente relacionados en
el proceso de decisión. El procedimiento de muestreo que hayamos elegido para la
investigación nos especificará cuando hay que observar, determinando los criterios de
inicio y final de las sesiones (muestreo intersesional) y a qué participantes y cuando
dentro de cada sesión (muestreo intersesional de participantes). El procedimiento de
registro especifica cómo debe registrarse el comportamiento de los individuos dentro de
cada sesión y qué propiedades de la conducta (ocurrencia duración y orden).

Qué es una sesión?

Una sesión de observación es un periodo de tiempo continuado durante el cual el


observador registra sistemáticamente las conductas objeto de estudio, es decir, son
fragmentos operativos de tiempo del periodo de observación.

El periodo de observación es el periodo de tiempo en el que tendría sentido registrar la


conducta del individuo en función de los objetivos del estudio, el periodo de
observación que corresponde a los criterios teóricos, no siempre es viable en términos
prácticos. En la mayoría de los estudios el investigador tiene que aceptar la existencia
de sólo ciertos subperiodos disponibles en función de la disponibilidad del participante,
observado o del observador. Además el investigador deberá determinar la duración de
las sesiones de observación y de la distancia de tiempo adecuado entre el final de una
sesión y el inicio de la siguiente, y el criterio para su ubicación en el periodo de
observación.

Procedimientos de muestreo

Una vez delimitado el problema, hay que seleccionar la muestra de participantes que
será objeto de estudio y que debe ser representativa de la población de interés. La
unidades muestrales pueden ser grupos, diadas, individuos, etc.

Decisiones de muestreo en metodología observacional:

1. Selección de las unidades muestrales


2. Muestreo intersesional: Cuándo observar (inicio y fin de las sesiones).
o Selección fija.
o Selección aleatoria.
3. Muestreo intrasesional: Qué sujetos y cuando dentro de la sesión.
89  
 
o Focal.
o Multifocal.
o Combinación de ambos.

Muestreo intersesional

Criterios de inicio y final de las sesiones de observación La selección fija es el sistema


más sencillo para determinar los momentos y lugares de las sesiones de observación y
consiste en la aplicación de un criterio fijo (temporal, conductual, situacional o de
actividad).Estas sesiones son siempre a la misma hora del día o coincidiendo con
determinadas actividades. Esta estrategia limita la representatividad de los datos a lo
ocurrid en esas horas o a lo vinculado a esas actividades, pero hay veces que el propio
problema de estudio determina los momentos más adecuados para la observación. La
selección aleatoria contribuye a conseguir esta representatividad y se puede aplicar de
varias formas. El más utilizado es:

• El muestreo aleatorio simple


o es poco viable en muchas investigaciones. En determinadas ocasiones los
participantes a observar o los observadores suelen tener limitada su
disponibilidad a ciertos subperiodos de tiempo.

Muestreo intrasesional de participantes

Además de la selección de participantes y de criterios de inicio y finalización de las


sesiones de observación, cuando en un estudio observacional se plantea la observación
de un grupo a través del registro de la conducta de los participantes, será necesario
determinar un procedimiento sistemático de reparto de la atención del observador a los
distintos miembros del grupo en cada sesión el procedimiento será una forma de
muestro intrasesional de participantes siendo las más usadas:

• Muestreo focal: un solo individuo se convierte en el foco de la atención


sostenida del observador durante un periodo de tiempo grande, incluso toda la
sesión. El resto del grupo serán observados en otra parte de la sesión o en
sesiones posteriores. Previamente en el registro se debe especificar cual o cuales
son los individuos focales de la sesión y qué hacer si el individuo focal deja de
ser observable.
• Muestreo de barrido o multifocal: el observador va focalizando a cada uno de los
individuos en periodos te tiempo muy breves, pasando de un individuo a otro en
un orden establecido y se puede repetir varias veces a lo largo de la sesión. La
duración de los intervalos será la misma para todos los individuos y en todos los
barridos de las sesiones. El muestreo multifocal genera datos con algunas
limitaciones.
• Uso combinado de muestreo focal y muestreo de barrido: propuesto por
Altmann (1974) aunque durante la sesión el observador registre la conducta de
un solo individuo focal, por ejemplo, cada cierto periodo de tiempo realiza un
barrido completo a todos los miembros del grupo para volver luego a su
individuo focal.

El muestreo ad libitum no sigue más criterio que atender a lo que le parece en cada
momento más interesante al investigador.

90  
 
Procedimientos de registro

El registro observacional consiste en anotar las conductas para tener constancia de su


ocurrencia, sus propiedades y su orden de aparición.

La acción de anotar la conducta observada puede tener lugar al mismo tiempo que
ocurre esta, cuando se realiza la observación directa. Esto es posible por la preparación
previa, de los observadores, por el diseño de hojas de registro muy prácticas o el uso de
aparatos de registro que facilitan la tarea. Actualmente se gravan las sesiones en video
para después visionarlas y proceder a la tarea de registro de codificación de las
conductas.

Se habla de codificación en la medida en que, con frecuencia, el registro se apoya en


una serie de códigos que representan a las categorías del sistema de manera que el
proceso de registro constituye al mismo tiempo un proceso de codificación de la
conducta y así es denominado en algunos manuales sobre observación.

A través de la tecnología, con programas informáticos específicos, se puede mejorar la


tarea de registro, ya que estos acumulan la información registrada y marcan los videos
digitalizados en los puntos de registro efectuados, permitiendo la localización y revisión
sistemática de cualquiera de las conductas de estudio identificadas. Se puede contar con
sistemas informáticos para video-análisis automático como Interact de Mangold o de
The Observer de Noldus, que aplicando el sistema de categorías determinado por el
investigador analizan las grabaciones y generan las bases de datos exportables a
programas de análisis estadísticos. La utilización de microordenadores preparados hace
viable la tarea de registro completo a tiempo real en situaciones de observación directa
(in vivo).

Registro activado por unidades de tiempo (RAUT)

Sólo se produce el registro de las conductas indicadas por el sistema de categorías


siguiendo una pauta determinada por intervalos de tiempo, las que están ocurriendo en
momentos temporales específicos de la sesión RAUT-puntual, o que han ocurrido en los
periodos de tiempo establecidos, RAUT de intervalos.

Registro activado por transiciones de conductas (RAT)

El orden de aparición de las conductas surge directamente del registro, en la medida en


que el observador anota un código cada vez que se produce un cambio, una transición
de una conducta a otra. El registro puede limitase a las ocurrencias y transiciones de las
conductas o incluir además información sobre su duración.

El registro activado por transiciones (RAT) posibilita un registro continuo y completo,


salvo que el procedimiento de muestreo utilizado provoque la discontinuidad del
registro (como el muestreo de barrido multifocal).

Métrica de la observación

Las medidas conductuales básicas o primarias son la frecuencia de aparición de una


determinada categoría del sistema de categorías y la duración de la ocurrencia de dicha
91  
 
categoría, estas medidas se refieren a dos dimensiones diferentes y complementarias del
comportamiento y a partir de las cuales se pueden obtener medidas derivadas o
secundarias.

La frecuencia es una medida cuantitativa discreta que se mide en escala de intervalo,


tiene su significado asociado a las condiciones concretas de la investigación y muy
especialmente al tiempo de observación o de la sesión en la que se obtuvo, ya que es el
resultado de contar el número de veces que el participante hace algo concreto. Para
trabajar con registros procedentes de sesiones de distinta longitud o para comparar
resultados de distintas investigaciones es necesario referirla al periodo de tiempo en el
que se obtuvo, empleando medidas secundarias o derivadas: como la tasa y frecuencia
relativa.

La tasa de la categoría se obtiene dividiendo su frecuencia por el tiempo total de


observación (sesión o suma de sesiones) , y se puede considerar como una medida de
densidad temporal de la categoría de conducta. La transformación de las frecuencias en
tasas tiene la ventaja de haber transformado medidas cuantitativas discretas en medidas
cuantitativas continuas.

La frecuencia relativa o proporción relativa es el resultado de dividir la frecuencia de la


categoría por el total de eventos registrados en ese periodo de observación (la suma de
las frecuencias de todas la categorías del sistema). Si el registro efectuado identifica no
sólo las categorías sino también su orden de aparición podremos obtener medidas de
microanálisis como son las frecuencias de transición.

La frecuencia de transición: es el número de veces (en el tiempo de observación) que


tras la ocurrencia de la primera conducta (i) ha tenido lugar la segunda (j). A partir de
éstas podemos obtener otras medidas secundarias como las frecuencias relativas de
transición dividiendo la frecuencia de transición del par de categorías en estudio por la
frecuencia de la categoría de conducta antecedente del par en cuestión . Por la suma o
acumulación de la duración de las ocurrencias podemos calcular la duración del flujo
conductual. La duración de una categoría indica el número total de unidades de tiempo
que ocupan todas las ocurrencias de la categoría durante el periodo de observación. La
duración es una medida cuantitativa continua (admite valores intermedios) de razón (su
escala tiene un cero absoluto). Con medidas secundarias o derivadas de la duración
podemos calcular la duración media y la duración relativa.

La duración media: de una categoría se calcula dividiendo su duración por su


frecuencia. Si queremos tener una media comparable con otras investigaciones,
entonces calcularemos la relación relativa o prevalencia dividiendo la duración de una
categoría por el tiempo total de observación.

La intensidad: es una medida menos frecuente los estudios observables pues exige la
aplicación de una escala ordinar que refleje los distintos grados de la presencia de una
determinada conducta en un individuo o de los distintos grados en los que puede
manifestarse un determinado rasgo conductual, y no todas las categorías conductuales
admiten este tratamiento.

Control de calidad de los datos

92  
 
En todo estudio científico son fundamentales y exigibles la fiabilidad y validez de los
datos, pues su comprobación garantiza la replicabilidad del estudio.

Si la fiabilidad tiene que ver con la precisión, la validez lo es, con el significado de la
medida. La validez de los datos de observación está estrechamente relacionada con la
relevancia de las categorías de observación seleccionadas y con la exhaustividad del
sistema.

El estudio de la viabilidad de los datos de observación se realiza calculando el índice de


acuerdo de los registros proporcionados por dos observadores que han trabajado de
forma independiente, y es conocido como fiabilidad interobservadores. O bien a través
del cálculo del índice de acuerdo, de los registros proporcionados por un mismo
observador que registra ciertas sesiones de observación en dos momentos diferentes
(fiabilidad intraobservador).

Estimación de la fiabilidad

No existen normas para el examen de la fiabilidad de los datos en un estudio


observacional, pero hay recomendaciones a partir de la experiencia. Es conveniente
contar con dos observadores para confrontar sus registros sobre un mismo material y
calcular el índice de acuerdo interobservadores. Esto no significa que se repartan el
trabajo ni que el trabajo se duplique totalmente. En realidad no se duplica el registro de
todas las sesiones de observación previas o ya gravadas sino sólo una muestra de ellas
(30%). Se recomienda empezar trabajando la fiabilidad por consenso que supone el
ajuste progresivo de los registros de los observadores de forma conjunta y negociada.

Después ambos observadores trabajaran codificando la muestra de sesiones


seleccionada de manera independiente. Se compararán los registros y analizarán para
comprobar que se alcanza un nivel de acuerdo aceptable, e identificar donde puede
existir algún problema, sises el caso.

Los índices de acuerdo aplicables son muy diversos.

El más aceptado y usado en metodología observacional es el índice de Kappa por su


fácil interpretación ya que sus valores están entre 0 y 1, por su calidad métrica, por su
versatilidad, pues es aplicable tanto con datos obtenidos por registro activado por
unidades de tiempo (muestreo de intervalos), como por registro activado por
transiciones (registro continuo), y por su capacidad informativa.

Para calcular el índice de Kappa es necesario construir una matriz cuadrada a partir de
las categorías conductuales del sistema, en cuyas celdillas se reflejarán los acuerdos de
los observadores, y los desacuerdos, que se irán marcando en la celdilla correspondiente
en función de la categoría conductual identificada por uno u otro. A partir de los datos
reflejados en la matriz de acuerdos se calcula la proporción de acuerdos observados.

Luego se valorará el resultado obtenido al analizar el grado de concordancia de los


registros independientes y se verá si es aceptable o nos está informando de la existencia
de problemas en el sistema de categorías, su definición o alguna otra cuestión de
procedimiento. El observador no es la única fuente posible de valoración, de

93  
 
introducción de error en el proceso de medición, pero sí constituye una de las amenazas
de error más importantes en la observación.

Fuentes de error y formas de control en la observación

El observador

Es fundamental en un estudio observacional, puede llegar a ser considerado como el


instrumento de la observación. Sus errores inciden directamente en los datos del
estudio. El entrenamiento de los observadores en la aplicación del sistema de categorías
específico del estudio es la principal forma de control de estas amenazas de error. Las
sesiones de entrenamiento deben durar hasta alcanzar un grado de fiabilidad por
consenso que investigador considere aceptable. Es conveniente también hacer estudios
periódicos de la fiabilidad sobre los registros realizados por los dos observadores de
forma independiente.

La deriva del observador se puede dar en la medida en que su propia experiencia en la


aplicación del sistema le puede llevar a ir desarrollando interpretaciones y adaptaciones
idiosincráticas de las definiciones originales de las categorías desviándose de forma
sistemática de ellas en el registro de los datos.

Las expectativas del observador acerca de lo que debería ocurrir o aparecer en la


situación estudiada puede llevarle a identificar conductas con categorías en casos en las
que no se ajustan correctamente o a no percibir otras conductas que debería registrar.
Además de estos controles de fiabilidad una estrategia de control específica consiste en
la utilización de observadores entrenados pero que desconozcan el objetivo y las
hipótesis del estudio (procedimiento ciego).

El sujeto de estudio: la reactividad

Tanto si estamos en una situación de observación participante como si es de


observación externa, si los participantes se saben observados existe riesgo de
reactividad, y les puede llevar a modificar su conducta de forma consciente y voluntaria
o de forma involuntaria, y no sería un comportamiento espontáneo.

Se trata de minimizar los riesgos de reactividad, la situación ideal es la observación de


individuos ingenuos (no saben que están siendo observados) a través del uso de
dispositivos ocultos, cámaras, magnetófonos, etc. Hay que recordar la necesidad de
seguir las normas éticas que garantizan el respeto de los derechos de los participantes.

Pero hay ocasiones en las que no se puede ocultar la presencia del observador y su tarea,
hay que tratar de ser lo más discretos, evitando al máximo la visibilidad del observador.

Si hacemos que el sujeto observado se familiarice antes del experimento con el


observador, se irá produciendo loa habituación de la persona observada a la presencia
del observador y ésta cada vez tendrá menos efecto sobre su conducta.

Ejemplo de investigación y su presentación a los participantes para evitar reactividad


94  
 
En una investigación sobre el desarrollo comunicativo preverbal, que realizamos con
niños entre 8 y 12 meses de edad, habíamos gravar en video situaciones de de
interacción libre de los niños con sus madres (sesiones de 20 minutos). En la
justificación que se daba a las madres de los objetivos de la investigación y de la
necesidad de contar con ellas, resaltábamos que el foco de interés era el niño, para poder
ir viendo como progresa en su capacidad de comunicación. Insistíamos en la idea de que
ella era necesaria para que el niño se sintiera cómodo y seguro, pero que no iba a ser
estudiada y que por supuesto el uso de esas cintas de video se limitaba exclusivamente a
su codificación por parte de los investigadores. Nos preocupaba conseguir que las
madres se relajaran y se centraran en sus juegos familiares con sus hijos y que no
estuvieran pendientes o preocupadas por su propia imagen. Se trataba de evitar
cualquier tensión anómala en la situación de interacción. La posible reactividad de los
niños se trató de evitar a través de la habituación a la presencia de la cámara en su
entorno familiar.

Sistemas de categorías

Hay veces que es el propio sistema de categorías o el de codificación el que provoca los
errores de los observadores. Problemas de definición de las categorías, una excesiva
amplitud o complejidad del sistema o la aplicación de códigos arbitrarios demasiado
alejados del significado de las categorías, pueden ser causa de errores en el registro. Por
otra parte el estudio de la fiabilidad en el proceso de entrenamiento de los observadores
nos puede informar de la existencia de estos riesgos y de si es necesario seguir
mejorando el sistema de categorías antes de proceder al registro sistemático de los
datos. Hay que recordar que una fuente importante de sesos o error en un estudio
observacional reside en lo que se puede considerar como fallos de procedimiento que se
pueden prevenir y evitar. Estos fallos pueden prevenirse realizando una cuidadosa
planificación y prestando especial atención a la adecuación de las decisiones tomadas
respecto a la naturaleza del problema de estudio, los objetivo e hipótesis y las
condiciones reales de viabilidad del estudio.

Análisis de datos

Se puede realizar desde distintos modelos y técnicas estadísticas, dependerá de los


objetivos e hipótesis de la investigación y de las características métricas y posibilidades
informativas de los datos registrados.

Para tener una visión general de las diferentes posibilidades de análisis de datos se
utilizan dos criterios básicos que pueden combinarse con otros más específicos:

Según los objetivos del estudio: análisis exploratorio vs análisis confirmatorio

El análisis exploratorio es propio de etapas iniciales. Hay veces que por la originalidad
del tema o el estado inicial de su desarrollo se parte sin hipótesis de trabajo que
indiquen que relaciones se deben buscar, por lo que el análisis irá explorando todos los
datos hasta encontrar ocurrencias o relaciones significativas. Este análisis proporciona
menos seguridad que los confirmatorios, en la que toda la investigación está orientada a
la contrastación de una hipótesis o predicciones. En el análisis exploratorio el riesgo de

95  
 
encontrar relaciones espúreas (no reflejan un efecto real sino un fenómeno azaroso) es
mayor que en el confirmatorio.

El análisis confirmatorio está orientado a la contrastación de hipótesis, que permiten


realizar los análisis pertinentes para su comprobación y obtener resultados que
mantenga o refuten las hipótesis. Hay que recordar que en la medida en que no exista
una variable de manipulación intencional que se introduzca como antecedente (causa)
de otra (cuyos cambios indican el efecto) en situaciones controladas, las relaciones que
predicen las hipótesis no se pueden plantear en términos de causalidad

Según las medidas conductuales utilizadas: macroanálisis vs microanálisis

Cuando la descripción y el estudio de las relaciones se realizan a través de medidas


globales como las frecuencias, las duraciones o sus derivadas hablamos de
macroanálisis. Las técnicas estadísticas aplicables a este tipo de análisis son diversas.
Desde los coeficientes de correlación bivariados hasta los análisis multivariado (más
complejos) para datos categóricos como el análisis de conglomerados o el factorial de
correspondencias múltiples por citar algunos de los más usados (el paquete estadístico
SPSS proporciona una buena gama de técnicas). En el microanálisis se estudian las
relaciones entre las unidades de conducta que a modo de eslabones de una cadena
describen el comportamiento del individuo o del grupo. Se pueden estudiar las elaciones
de contingencia temporal entre las conductas. La técnica más extendida de microanálisis
es el análisis secuencial o análisis de secuencias, este sólo es posible si se ha activado
por transiciones (RAT). El análisis secuencia tiene en cuenta la variable tiempo en la
medida en que pretende descubrir cómo cambian las probabilidades de que ocurran
ciertas conductas en función de que previamente hayan ocurrido otras, y encontrar
patrones estadísticamente significativos que revelen sus regularidades.

El análisis de secuencias no es una técnica estadística concreta, sino que refiere la


posible aplicación a los datos categóricos secuenciales de algunas de las diversas
técnicas existentes con tal fin.

Sobre el análisis secuencial

El programa informático SDIS-GSEQ de Bakeman y Quera (1996) es una potente


herramienta para la aplicación informatizada de estas técnicas. La versión para
Windows de este programa informático (GSW) está en continuo proceso de
actualizaciones y mejoras por parte de los autores. Proporciona estadísticos secuenciales
como las tablas de frecuencias de retardos (frecuencias de transición con ventanas
temporales), chi cuadrados, residuos ajustados...., así como el cálculo de índices de
concordancia entre observadores (Kappa). Puede exportar los datos para análisis
complementarios con otros programas como los del SPSS o BMDP. Se puede acceder al
programa y sus actualizaciones a través de la página www.ub.es/comporta/sg.htm.

Podemos aplicar así mismo las técnicas basadas en los modelos log-lineal. El programa
ILOG de Bekerman y Robinson (1994) realiza especialmente análisis log-lineal y el
paquete de programas SPSS incluye módulos con estas técnicas.

96  
 
11. La investigación cualitativa
Contenidos

1. 1 Características de la investigación cualitativa


2. 2 Fases de investigación cualitativa
1. 2.1 Fase de Recogida de datos
1. 2.1.1 Fase de retirada
2. 2.1.2 Fase de escritura
3. 2.1.3 Métodos de la investigación cualitativa
3. 3 Etnografia
4. 4 Investigación - acción
1. 4.1 Características de la investigación-acción
2. 4.2 Procedimiento de la investigación-acción
3. 4.3 Estudio de caso
4. 4.4 Definición de un estudio de caso
5. 4.5 Tipos de estudios de casos
6. 4.6 Selección y unidades de análisis del caso
7. 4.7 Los componentes del estudio de caso
8. 4.8 Obtención y análisis de datos del estudio de caso
9. 4.9 La generalización de los estudios de caso
5. 5 Técnicas cualitativas
6. 6 Observación participante
1. 6.1 Ventajas y limitaciones de la observación participante
2. 6.2 Las fases de la observación participante
1. 6.2.1 Las notas de campo
3. 6.3 Cuándo y por qué elegir la entrevista cómo estrategia d investigación
7. 7 El guión o el programa de la entrevista
1. 7.1 La entrevista de grupos (focus group o grupos de discusión)
8. 8 Análisis de datos y rigor de la investigación

Características de la investigación cualitativa

La investigación cualitativa utiliza múltiples perspectivas para comprender el fenómeno


de estudio.

De acuerdo a los objetivos del investigador; la investigación cualitativa concibe la


realidad desde múltiples perspectivas; una de sus principales características es que
atiende a la diversidad y particularidad de estas diferentes maneras de concebirlas.

97  
 
Otra de las características es la de ofrecer una comprensión de estas particularidades.
Por tanto el tipo de conocimiento es de carácter ideográfico. Por otra parte la
investigación cualitativa en la medida en que el investigador se propone mejorar las
prácticas de los individuos con los que investiga, tiene un rasgo transformador (ámbitos
educativos, comunitarios, etc.)

En lo que se refiere al modo de proceder, en ambos casos -comprensivo o


transformador- es inductivo.

La investigación cualitativa con relación a su objeto de estudio busca una mirada


holística (global) del fenómeno. No busca variables que determinen una conducta
particular, busca comprensión del todo, porque la configuración global de un contexto
cambia al variar una des sus partes. Para investigar cualitativamente hay que situarse
dentro del contexto por lo tanto esta investigación es participativa.

El investigador entra en contacto con el contexto, por lo que la investigación cualitativa


a de ser sensible al contexto, sobre todo la presencia del investigador ha de tratar de
respetar la estructura a la que se integra, tratar de adaptarse lo más rápido posible, para
ello es necesario un ejercicio de suspensión de sus propias creencias. La cercanía del
investigador hacia los participantes produce un conocimiento personal, y por tanto
humanista.

En resumen, la investigación cualitativa presenta las siguientes características:

• Atiende a la diversidad y a la particularidad de los fenómenos


• Conocimiento ideográfico
• Proceso inductivo de conocimiento
• Holística
• Participativa
• Sensible al contexto Humanista

Fases de investigación cualitativa

Toda investigación cualitativa sigue los siguientes pasos:

1. Reflexión
o En esta etapa se ha de seleccionar la pregunta de investigación. Es
importante tener en cuenta que el tema sea lo suficientemente interesante
para mantener el compromiso y el interés del investigador durante todo
el proceso.
o El tema puede provenir de la experiencia cotidiana de la práctica
profesional. Por último mencionar que la preparación de la pregunta de
investigación se realiza considerando las metas de la investigación.
2. Planificación
3. Seleccionar el sitio
o Dónde se realiza la acción y cómo se accederá a los participantes son
aspectos que se debe tratar con sumo cuidado. La investigación
cualitativa se realiza en contextos de la vida cotidiana así que se deben
considerar diferentes alternativas.

98  
 
o Algunos sitios como ambientes laborales o familiares pueden ser de
difícil acceso, por tanto es necesario desplegar habilidades de
negociación para acceder al sitio donde tendrá lugar la investigación y la
recolección de los datos.
o No es adecuado realizar la investigación en el propio lugar de trabajo, ya
que la información que se obtiene es confidencial.
o Es importante la adaptación y adecuación del investigador al contexto, ya
que sutiles cuestiones como el vestido o el aspecto, podrían alterar la
obtención de resultados.
4. Selección de la estrategia
o La naturaleza de la pregunta de investigación determina la estrategia a
utilizar, cada estrategia ofrece una perspectiva única y singular. Por
ejem: las entrevistas están diseñadas para obtener básicamente datos
textuales con los que se analiza el discurso pero no la actividad de los
participantes en su contexto. En contra, la observación facilita acceder a
las actividades de los participantes para su análisis. Dependiendo de la
pregunta de la investigación, habrá una selección de estrategias que
determinará el tipo de datos que se quiere analizar.
5. Triangulación metodológica
o Es una estrategia cuya finalidad es obtener validez y rigor en los datos y,
a la vez, ofrece una visión global desde diferentes perspectivas. Si en una
entrevista hemos obtenido ciertos datos, podemos después utilizar la
observación del escenario como confirmación de lo dicho en la
entrevista, o incluso el análisis de la información registrada en
documentos o registros públicos.
o La triangulación es el modo de garantizar que los datos con los que el
investigador generará hipótesis, consigan cierta garantía de validez,
contrastando los datos obtenidos a través de diferentes técnicas.
o El investigador coteja la información a través de diferentes fuentes de
información, desde diferentes personas que tienen perspectivas distintas
del objeto de estudio.
6. Preparación del investigador
o Ya que el investigador es el instrumento de investigación, es importante
aprender a alcanzar un cierto grado de confianza en el contexto donde se
realiza la investigación. Hay que esperar ser aceptado por los
participantes en la investigación (paciencia). En la investigación
cualitativa, es el investigador es quien genera los datos, por lo que es
importante ser meticuloso en la documentación y en el registro.
o Archivar con sistematización y mantener las notas al día. La guía del
investigador es su pregunta de investigación y también sus bases
teóricas.
o Creación y perfeccionamiento de la pregunta de investigación.
o Al inicio. Es aconsejable que la pregunta de investigación sea lo
suficientemente amplia para trabajar aquellos aspectos que
probablemente no se contemplan en una primera definición.
7. Fase de entrada
o Esta fase implica un acercamiento a los participantes, conocer quién es
quién e, incluso, hacer un mapa del lugar podrían se puntos de partida
que ayudan al conocimiento del escenario.
o Familiarizarse lleva un cierto período de tiempo.

99  
 
8. Muestreo
o Si el objetivo es generar una teoría o hipótesis sobre un determinado
fenómeno, hay que buscar y seleccionar situaciones o casos, que
representen todas aquellas propiedades del fenómeno que sean relevantes
para la generación de teorías o hipótesis. Es decir utiliza un muestreo
teórico, que consiste en dos estrategias complementarias; seleccionar
casos que permitan obtener las propiedades básicas comunes a todos los
casos, y seleccionar casos tan diferentes entre sí que den la oportunidad
de obtener matices y diferencias importantes entre ellos. Con este tipo de
muestreo el investigador tiene un indicador sobre la necesidad de obtener
nuevos datos.
o En lo que se refiere a decidir quienes serán los participantes, resulta
necesaria una primera selección en la que el investigador decida bajos
ciertos criterios quienes son los participantes. El investigador busca un
participante que tenga no solo conocimientos y experiencia, sino que
tenga la habilidad para expresarlos, que tenga tiempo para participar en
la investigación y que además quiera hacerlo, aquí se utilizaría el
muestreo de conveniencia, cuya característica principal es la
disponibilidad de los participantes.
o Si se requiere estudiar algunos casos específicos con participantes con
una determinada característica por ejem: que hayan experimentado una
situación en particular, que pertenezcan a un determinado grupo, etc. El
muestreo a propósito es el más indicado.
o El muestreo de bola de nieve, es otra forma de llegar a los participantes,
especialmente cuando pertenecen a poblaciones atípicas o que son de
difícil acceso, y consiste en que uno de los participantes puede servir de
enlace para que el investigador obtenga nuevos participantes.
o El muestreo a propósito y el muestreo bola de nieve; nos proporcionarán
una “muestra intensiva”, denominada así porque los participantes tienen
en común una determinada característica constituyendo así una muestra
muy homogénea.
o La muestra heterogénea, se utiliza cuando se exploran conceptos
abstractos por ejem: la violencia, la colaboración, etc. Y para ello es
necesario obtener participantes de una variedad de procedencias.
o Este tipo de muestra puede indicarnos dos tipos de datos: para
documentar las diferencias y para identificar patrones comunes
compartidos.
o Por último, indicar que la muestra está determinada por las necesidades
del estudio y no de acuerdo a criterio poblacionales o por su
representatividad demográfica.

Fase de Recogida de datos

Esta fase es donde el investigador tratará de dar sentido a los hechos en función de sus
conocimientos previos y tratará de establecer relaciones entre diferentes aspectos de los
datos. El análisis de los datos se hace paralelamente con la recolección de los mismos.
Esta fase requiere sistematización y un dominio sobre las técnicas y métodos.

A medida que el estudio progresa, las reflexiones teóricas también aumentan. La


recolección de los datos y el muestreo están dirigidos por el modelo teórico emergente.

100  
 
El investigador busca índices de saturación, estos índices ocurren cuando la información
se vuelve repetitiva, y se confirman los datos recogidos previamente. Al usar un
muestreo teórico, se buscan datos negativos que enriquezcan al modelo emergente y
expliquen las variaciones de diversos patrones, así el investigador mantiene un control
sobre los datos.

Criterios de adecuación y pertinencia de los datos

La adecuación se refiere a la cantidad de datos recogidos, no al número de sujetos. Esta


adecuación se logra cuando los datos son suficientes para que se cumplan los criterios
de saturación y variación.

La pertinencia de los datos se refiere a la selección de la información de acuerdo a las


necesidades teóricas del estudio y el modelo emergente.

El control de la información

La documentación cuidadosa del desarrollo conceptual del proyecto debe dejar un rastro
importante para reconstruir el proceso que permita a los investigadores saber cómo se
ha llegado a las conclusiones. Las notas deben reflejar por qué se toma las decisiones
metodológicas en los distintos momentos de la recogida de datos.

No es usual que el investigador cualitativo recurra a un colega para comprobar la


validez de su trabajo, ya que el primero tiene un conocimiento de fondo sobre lo que
observa, que su colega no tiene.

Verificación del estudio con los participantes

El modelo resultante debe ser devuelto y presentado a los participantes. Con frecuencia,
ellos son capaces de confirmar la validez del estudio, aunque en ocasiones ocurre que
los participantes no son conscientes de lo que muestran los resultados.

Fase de retirada

Cuando el investigador se siente como un miembro más del contexto dos procesos
impiden la recolección de datos. El investigador pierde sensibilidad a las actividades
cotidianas en el medio: estas actividades se vuelven predecibles y poco relevantes; esto
origina que se complique la recolección de datos. El investigador se vuelve uno más del
grupo, pierde objetividad. El investigador se convierte en nativo, no tomas notas, o no
tiene nada que observar. Si eso ocurre, se debe preparar la retirada del escenario, aunque
el análisis no esté del todo terminado. Se debe negociar con los participantes,
indicándoles esta situación y que posiblemente tenga que volver al escenario si se
necesita aclarar algo o confirmar algunos datos.

Fase de escritura

El informe cualitativo consiste en presentar argumentos sistemáticos y convincentes


presentando los datos que apoyan el caso del investigador o que rechazan explicaciones
alternativas. Se recomienda escribir el artículo bajo dos planteamientos:

101  
 
1. escribir el artículo guiando al lector en la resolución del problema con los pasos
del investigador, y
2. presentar un resumen de los principales resultados resaltando los que apoyan la
conclusión.

La incorporación de citas es un recurso que se suele utilizar para ilustrar las


interpretaciones de los datos. Es importante recordar que en el proceso se debe
mantener el anonimato, y por tanto se debe cuidar que las citas cuiden de la identidad de
los participantes.

Métodos de la investigación cualitativa

Un estudio cualitativo suele utilizar distintas estrategias, debido básicamente a tres


cuestiones. Por una parte, al hecho de que los datos que se generan pueden ser de
distinta naturaleza (visuales, textuales, documentos, etc.) y por tanto requieren distintas
estrategias para su recogida y análisis. Por otra parte la comprensión holística del
fenómeno utiliza diferentes modos de aproximarse a la realidad social. Por último, el
rigor de la investigación cualitativa requiere del proceso de triangulación que utiliza
varias técnicas y estrategias de investigación.

Etnografia

Se la ha definido como la descripción de la etnias. La Antropología que estudia los


grupos culturales utiliza la etnografía, la misma que ha sido identificada de modo casi
exclusivo con la observación participante. Sin embargo esta estrategia no es la única
para indagar sobre la descripción y el análisis de los grupos sociales y culturales. Se
suelen usar otras estrategias para generar datos como las entrevistas, el análisis de
documentos, las grabaciones en vídeo, las historias de visa, o los objetos materiales.

Algunos autores señalan que la Etnografía pretende indagar y examinar lo que un


determinado grupo hace, vive, interactúa, etc. La Etnografía requiere que el investigador
viva y comparta dentro del grupo, y desde ese lugar analizar e interpretar como los
miembros del grupo le dan sentido al mundo.

De acuerdo a Atkinson y Hammersley, tiene los siguientes rasgos:

• Un fuerte énfasis en explorar la naturaleza de un fenómeno social particular, en


tratar de probar hipótesis (inductiva)
• Trabaja fundamentalmente con datos poco estructurados; es decir los datos no
han sido codificados en términos de un conjunto cerrado de categorías analíticas
• Investiga un pequeño número de casos, quizá solo un caso, en detalle.
• Los análisis de datos implican una interpretación de los significados y funciones
de las acciones humanas, tomando la forma de descripciones verbales y
explicaciones, en las que la cuantificación y el análisis estadístico tiene un papel
subordinado (interpretativa)

También se denomina Etnografía al informe producto del trabajo de investigación de un


estudio cultura, el cual tiene normas para su presentación.

102  
 
El informe debe contener determinados apartados temáticos que constituyen elementos
claves para su comparación con otras culturas, además sigue una serie de normas
descriptivas.

Las nuevas corrientes en Ciencias Sociales, consideran que estas normas limitan mucho
el análisis de la cultura local y el proceso por el cual el investigador llega a estas
interpretaciones, ya que se debe tener en cuenta los aspectos subjetivos presentes en
cualquier investigación cualitativa.

La Etnografía lo que hace es hacer explícito lo que normalmente es un conocimiento


tácito entre los grupos sociales y culturales. Para ello la Etnografía trata de empatizar
con los miembros del grupo para descubrir y comprender el conocimiento tácito que
está subyacente al comportamiento. Esta posición es denominada émica (una
experiencia próxima al grupo) en contraposición de una posición ética (una experiencia
distante con relación al grupo).

Par interpretar el “saber tácito” se suele recurrir a la observación participante.

Investigación - acción

Las raíces de la investigación-acción vienen de los trabajos de Kurt Lewin. Uno de sus
principales trabajos fue la investigación-acción para desarrollar programas de acción
comunitaria en EEUU. Este método también ha estado vinculado a los movimientos
liberadores en Brasil con Paulo Freire en la educación de adultos, los cuales tenían la
misión de concienciar y emancipar de las condiciones en que vivían los trabajadores del
campo. También ha tenido un impulso importante en planteamientos neomarxistas para
el desarrollo de la comunidad, asi como en planteamientos en defensa de los derechos
humanos.

A lo largo del siglo XX, en Latinoamérica con los movimientos sociales y


revolucionarios, la investigación-acción han tenido gran relevancia en diferentes
ámbitos para la transformación de contextos comunitarios.

También ha sido impulsada en Gran Bretaña y Australia. Actualmente la investigación-


acción es utilizada en programas universitarios y en agencias internacionales para el
desarrollo de comunidades educativas o sociales.

A diferencia de la investigación cualitativa, la investigación-acción es participativa,


tiene un compromiso político y social, cuya finalidad está dirigida al cambio social.

Las áreas en las que la investigación-acción ha tenido relevancia son:

• Educación. Tratando de mejorar y cambiar prácticas docentes y a través de la


alfabetización de adultos.
• Psicología. En organizaciones en Inglaterra y EEUU, se han creado institutos
para las relaciones humanas en los centros de trabajo. El objetivo es mejorar el
eficiencia laboral, cambiar las prácticas para la seguridad de los trabajadores y
mejorar las relaciones entre los empleados.

103  
 
• Psicología comunitaria. Como la intervención psico-social se han generado
trabajos relacionados con los accesos de las personas con discapacidad,
educación popular.

Características de la investigación-acción

Kemmis y McTaggart, plantean siete características de la investigación-acción:

• Es un proceso social, que explora de modo deliberado la relación entre la esfera


social e individual. Reconoce la influencia bidireccional entre el individuo y lo
social.
• Es participativa, implica a las personas en el proceso de conocimiento, en la
producción de las categorías. Es un proceso en el que los participantes tienen
conocimiento de sus prácticas, configuran su sentido de identidad y de agente; y
como este conocimiento puede limitar o estructurar su acción. Se trata de un
proceso que genera y transforma el conocimiento con los participante, no se trata
de obtener información sobre los participantes.
• Es práctica y colaboradora, En la medida en que los participantes reflexionan
sobre sus prácticas y tratan de modificarla. Los participantes son fundamentales
en el proceso de análisis y reflexión de sus prácticas para su reconstrucción.
• Es emancipadora. La meta de este tipo de investigación es contribuir a que las
personas tomen conciencia de cómo las estructuras sociales limitan su desarrollo
y su autodeterminación, de manera que dicha conciencia ayuda a cambiar las
prácticas para mejoras dichas condiciones.
• Es crítica. En la medida en que promueve el análisis de las estructuras sociales y
el desempeño de los participantes en dichas estructuras fomenta una mirada
crítica con respecto al modo de ver la realidad social.
• Es reflexiva. Al promover el cambio de la realidad promueve su análisis.
Comprender y decidir que aspectos de la práctica deben cambiarse, implica
reflexión sobre la recurrencia de las relaciones entre la práctica, su
conocimiento, su estructura social y el medio social.
• Transforma la teoría y la práctica. Cambiar la teoría no es suficiente desde la
perspectiva de la investigación-acción, es importante cambiar la práctica a la vez
que la teoría.

Procedimiento de la investigación-acción

El procedimiento es cíclico y se suele representar con un espiral en la que se presenta


ciclos auto-reflexivos:

1. Planificar el cambio
2. Actuar y observar el proceso y las consecuencias del cambio.
3. Reflexionar sobre los procesos y sus consecuencias
4. Planificar de nuevo
5. Actuar y observar otra vez
6. Reflexionar de nuevo.

Este proceso es parecido a un proceso educativo social. Su objeto es social y está


dirigido a analizar, estudiar y reconstruir las prácticas sociales, requiere una
colaboración activa de los participantes.

104  
 
Para realizar la investigación-acción es necesario realizar un análisis de la situación:

• Qué hace la gente,


• Cómo interactúa la gente con otros y en su contexto,
• Cómo la gente valora y entiende su práctica,
• Cuál es el discurso de la gente para explicar e interpretar el mundo.

Ciclos de la investigación acción

1. La planificación. Se trata de la primera idea general que consiste en tratar de


mejorar un aspecto de la práctica profesional o social de una comunidad o
grupo. Se plantea a partir de un análisis diagnóstico de la situación, en donde se
obtiene una comprensión del fenómeno a estudiar, a partir del cual se propone
una estrategia de intervención con la finalidad de cambiar o mejorar dichas
prácticas.
2. Acción y Observación. En el momento de la intervención, es necesario realizar
una labor de observación, tratando de obtener información sobre los posibles
cambios. La supervisión de las acciones es otra de las actividades que hay que
considerar durante la observación. Para la recogida de la información se pueden
utilizar diferentes técnicas, por ejem: diario de campo, entrevistas, notas de
campo de los participantes.
3. La reflexión es el último paso del ciclo, aunque no necesariamene al final de la
investigación sino puede estar presente en las fases previas del proceso. La
reflexión tratará de analizar los cambios y reevaluar las acciones y se ha de
realizar a partir de la información obtenida en el paso previo, pero también
añadiendo elementos de análisis teórico de la situación social, servirá para
planificar el siguiente ciclo, analizar y proponer una nueva acción que permite
conseguir el objetivo.

Estudio de caso

El estudio de caso es uno de los procedimientos de investigación en Psicología y en


otras disciplinas que nos permiten poner al descubierto el alcance de los conocimientos
científicos. No es un instrumento de investigación nuevo, quizá es uno de los primeros
en comprender qué ocurre con algunos fenómenos que suceden de modo fortuito y no
buscados intencionadamente por los investigadores, pero que con los conocimientos
disponibles no se alcanza a comprender su naturaleza y complejidad.

Definición de un estudio de caso

En los estudios de caso desde la investigación cualitativa, el investigador trata de


observar y comprender al sujeto desde una perspectiva holística, en su contexto y el
significado que tiene para el sujeto un determinado aspecto de la realidad. El sujeto y el
contexto forman, ambos, parte del caso, no hay un límite preciso entre ellos. Se trata de
estudiar al sujeto en su contexto, su interés se centra en su particularidad y en lo que
tiene en común con otros casos.

Un caso puede estar constituido por un solo sujeto o por un grupo específico. Lo que
determina el caso es que está limitado a una serie de características que configuran un
sistema, el mismo que puede estar formado por el sujeto y su contexto.

105  
 
Yin destaca las siguientes características:

• Examina o indaga sobre un fenómeno contemporáneo en su entorno real.


• Las fronteras entre el fenómeno y su contexto no son claramente evidentes.
• Se utilizan múltiples fuentes de datos
• Puede estudiarse tanto un caso único como múltiples casos.

Tipos de estudios de casos

Stake define tres tipos:

• El estudio de caso intrínseco es aquel que no es buscado por el investigador. No


se estudia el caso porque representa a otros casos, o porque ilustre algún rasgo,
sino porque, el caso es interesante en sí mismo.
• El estudio de caso instrumental es el que proporciona interés para reflexionar
sobre la teoría, el caso es de interés secundario. Se puede estudiar detalles del
caso, su contexto, permite avanzar en el conocimiento teórico.
• El estudio de caso colectivo se refiere al estudio de caso que conducen a un
mejor conocimiento sobre algún aspecto teórico. El caso colectivo es un estudio
instrumental, ya que ilustran ciertos aspectos de la teoría.

El caso intrínseco puede volverse instrumental debido a que el caso puede ser
interesante en sí mismo.

Yin divide el estudio de casos en función de sus objetivos:

• Los estudios de casos exploratorios son los que se utilizan para explorar alguna
situación en la que se pretende evaluar una intervención y no están claros los
posibles resultados de la misma.
• Los estudios explicativos buscan contestar a una pregunta relacionada con
situaciones reales complejas y difíciles de tratar por estrategias de encuesta o
experimentales. Se relacionan con funciones de evaluación para la aplicación de
un programa y sus efectos.
• Los casos descriptivos son aquellos que se usan para describir una intervención
o fenómeno en su contexto real.
• Los casos múltiples capacitan al investigador para explorar diferencias o
semejanzas entre los casos. La meta es replicar los resultados a través de los
casos.

Selección y unidades de análisis del caso

El caso intrínseco, es el caso que se caracteriza porque no se selecciona; el investigador


recibe los casos. En el caso instrumental o colectivo los casos tienen que ser
seleccionados. Dicha selección trata de representar el fenómeno de estudio, pero la
selección no es aleatoria.

El objetivo de estudio del caso indicará el modo en los casos son seleccionados. Para
seleccionar es necesario saber que aspectos se van a estudiar, hasta donde desea llegar el
investigador y cual es su unidad de análisis en el caso.

106  
 
La diferencia entre la comparación de casos múltiples y las subunidades de un caso
simple es que mientras que éste último permite el estudio intensivo de un caso único,
los casos múltiples permiten comprender las diferencias y similitudes de los casos,
comparándolos a través de los diferentes contextos y en cada contexto.

Los componentes del estudio de caso

Cuando se implementa un estudio de caso, es importante tener en cuenta:

• Considerar los enunciados teóricos establecidos,


• La aplicación de un marco conceptual,
• El desarrollo de preguntas de investigación,
• Los criterios para interpretar los datos.

Los enunciados teóricos guían el estudio, la recolección de datos y la discusión


determinan la dirección y los alcances del estudio. Los casos exploratorios, descriptivos,
intrínsecos no requieren de enunciados teóricos.

El marco conceptual tiene como finalidad identificar quiénes estarán incluidos en el


estudio, además proporciona al investigador la oportunidad de obtener constructor
generales. El marco conceptual deberá incluir los elementos que surgen del análisis de
datos y puede ser modificado cuando los datos estén analizados.

Obtención y análisis de datos del estudio de caso

El estudio de caso utiliza estrategias como la entrevista, la observación, el análisis de


documentos, etc. Profundizar en un estudio de caso, depende de las habilidades del
investigador y en el uso de dichas estrategias. Para el análisis de datos, es necesario
codificar estos datos tratando de darle una estructura al sistema a través de categorías
que permitan explicar el fenómeno de estudio.

Para garantizar que las interpretaciones del caso son las correctas es útil la triangulación
como estrategia. El caso puede ser presentado a otros investigadores para discutirlo.

La generalización de los estudios de caso

Los resultados del estudio de un caso pueden generalizarse a otros que representen
condiciones teóricas similares. Los estudios de casos múltiples robustecen estas
generalizaciones analíticas al proporcionar evidencia empírica a partir de dos o más
casos (replicación literal) o alternativamente para cubrir diferentes condiciones teóricas
que dieran lugar, por razones predecibles, a resultados opuestos (replicación teórica). Se
puede hablar de transferibilidad de los hallazgos teóricos producidos por el caso a otros
casos.

Técnicas cualitativas

Observación participante

Es la descripción sistemática de eventos, comportamientos y artefactos en el escenario


social elegido para ser estudiado. Denzin, la ha definido como una estrategia de campo
107  
 
que combina simultáneamente el análisis de documentos, la entrevista a participantes, la
participación directa, la observación y la introspección. Las observaciones facultan al
investigador a describir situaciones existentes usando los cinco sentidos,
proporcionando una fotografía escrita de la situación.

La observación participante también tiene algunos problemas en su definición. Se le ha


denominado así en contraposición de la observación no-participante que se da en
lugares públicos. Este tipo de observación no-participante, puede ser adecuada cuando
los grupos no se mantienen constantes, y por tanto, el papel participativo del observador
no tiene sentido.

En ocasiones resulta problemático acceder a ciertos contextos como participante en una


situación por ejem: grupos de niño, de adolescentes, etc. Por la condición propia del
investigador (género, edad) o por cuestiones éticas.

Ventajas y limitaciones de la observación participante

Entre las ventajas: permite una descripción detallada cuyo objetivo es describir
comportamientos, intenciones, situaciones y eventos que son expresados por los
informantes; proporciona oportunidades para ver o participar en eventos no
programados. Permite revisar expresiones no verbales de sentimientos, se puede
determinar quién interactúa con quién, permite comprender cómo los participantes se
comunican entre ellos, y verificar cuánto tiempo se emplea en determinadas actividades.
Se pueden contrastar definiciones de los términos que los participantes usan en
entrevistas, observar eventos que los participantes no quieren o no pueden compartir
verbalmente, por no ser descortés, insensible o impropio; observar situaciones descritas
por los informantes, con el fin de detectar si la información esta distorsionada.

La calidad de este tipo de observación depende de la habilidad del investigador.

Entre las limitaciones:

La propia estructura social (costumbres, normas culturales) puede condicionar la


aceptación del observador en la comunidad. El investigador deberá determinar hasta que
punto participar en la vida de la comunidad, y decidir si interviene o no en alguna
situación.

El sesgo del investigador. La posibilidad de hacer una fotografía escrita del grupo
siempre estará limitada a los eventos que el investigador puede observar, siempre faltará
algo que el investigador no reporte en sus notas de campo, además los propios
prejuicios del investigador pueden sesgar la información. Es importante que el
investigador esté consciente de cómo su género, étnia, clase social, y aproximación
teórica, pueden afectar la observación, el análisis e interpretación.

Las fases de la observación participante

La observación participante es un proceso en el cual se consideran dos aspectos


relacionados: uno, que el observador debe convertirse en un participante más y
conseguir acceso al campo y a las personas y otro, la observación avanza haciéndose

108  
 
más concreta y enfocada hacia los aspectos que son esenciales para la pregunta de
investigación.

Entre las fases de observación participante tenemos:

• En la primera fase se produce una observación descriptiva, en la cual uno


observa cualquier cosa y todo, asumiendo que lo ignora todo; el riesgo de esta
etapa es que puede llevar a la recolección de minucias que pueden ser o no
relevantes al estudio.
• Una segunda fase en la que el observador estás más adaptado produce una
observación enfocada. En esta observación, a veces apoyada en entrevistas, las
visiones de los participantes guían las decisiones del investigador acerca de qué
observar.
• Una última fase conduce a una observación selectiva, en la cual el investigador
se concentra en diferentes tipos de actividades para ayudar a delinear las
diferencias o relevancia en dichas actividades.

Las notas de campo

Es importante que el investigador, realice de modo sistemático sus notas de campo,


incluyendo no solo la descripción exhaustiva de los hechos sino también sus emociones,
reflexiones y experiencias en el escenario, de esta manera evitar la encrucijada de
participar en una actividad y en la necesidad de realizar notas de campo.

Las notas de reflexiones del investigador deben estar separadas de las notas que
describen experiencias, lo dicho en las conversaciones o en las acciones.

Entrevista

En la investigación cualitativa, se suele utilizar con frecuencia la entrevista a


profundidad, aunque también se usa la entrevista semiestructurada o la llamada
entrevista libre. Cualquiera que tenga en formato de la entrevista tiene los siguientes
rasgos comunes:

• Intercambio interactivo del diálogo. Puede implicar interacciones uno a uno, o


en grupo. Puede darse este intercambio cara a cara, por teléfono o incluso por
Internet.
• Adquiere un estilo relativamente informal, como la entrevista cara a cara en una
conversación o discusión, más que un formato de pregunta y respuesta formal.
• Está centrada en una temática o un tópico, con un planteamiento narrativo o
biográfico, donde el investigador tiene una serie de temas o cuestiones que desea
cubrir.

Las entrevistas cualitativas están diseñadas para tener una estructura flexible y que
permitan al investigador desarrollar temas inesperados, por lo que es poco probable que
el investigador disponga de un guión de preguntas.

Cuándo y por qué elegir la entrevista cómo estrategia d investigación

109  
 
La entrevista se elige como método de trabajo cuando se está convencido de que la
pregunta de estudio que se ha propuesto explorar se puede obtener del conocimiento de
personas, su perspectiva e interpretación así como de sus experiencias. Se trata de
generar conocimiento a través de la situación de diálogo.

La entrevista es apropiada cuando se quiere enfatizar en profundidad la complejidad y


desarrollo de los datos, más allá de lo que puedan proporcionar los cuestionarios o
encuestas.

Usos de la entrevista en la investigación en Psicología:

• Como herramienta de investigación.


• Como herramienta en la actividad clínica para el diagnóstico.

Cualquiera que sea el área de investigación la entrevista requiere entrenamiento.

El guión o el programa de la entrevista

Se refiere a la serie de tópicos o preguntas que el investigador quiere explorar y probar


con el entrevistado. Sin embargo un conjunto detallado de preguntas se le denomina
programa de la entrevista.

El hecho de que se haga una entrevista informal, no significa que no exista una
planificación rigurosa y detallada. 11.10.2.1. Preparación de la entrevista Decidir el
formato. El investigador en esta fase debe decidir qué formato desarrollar, un guión o
algo más elaborado, como es un programa de entrevista. Para tomar esta decisión se
considera, la habilidad del entrevistador, el conocimiento que el investigador tiene del
problema de estudio, y si las entrevistas serán realizadas por uno o más investigadores.
El formato guión resulta adecuado para explorar fenómenos a través de la entrevista
cuando se sabe poco sobre e tópico de estudio.

Cuando hay más de un investigador es deseable un formato más desarrollado, para


asegurar que se preguntan por diferentes temas.

Si se decide por un guión se hace una lista de categorías de investigación para la


entrevista.

Muchos investigadores prefieren preguntas abiertas en este tipo de entrevista, pero es


recomendable llevar alguna preparación de preguntas antes de la entrevista, sobre todo
los principiantes.

Preparación de las preguntas. Hay varios factores que debe considerarse: si las
preguntas son abiertas invitan al entrevistado a participar en la conversación. No debe
estar diseñada para producir respuestas discretas de repuestas cortas sino que deben
estar diseñadas para promover que el entrevistado ofrezca su razonamiento u opiniones.

La calidad de la entrevista depende de que haya buenas peguntas. Hay tres fallos en las
entrevistas: la pregunta es cerrada cuando produce respuestas que cortan la fluidez;
cuando la pregunta es poco clara puede reflejar que la pregunta de investigación no está

110  
 
todavía clara y la pregunta es compleja cuando se abordan dos temas en una única
respuesta.

Secuencia de las preguntas en la entrevista. Resulta útil planificar la entrevista. Se


puede iniciar la entrevista con algunos tópicos no controvertidos centrándose en las
preguntas sobre la experiencia, aplazando las preguntas más incómodas hasta que se
establezca una buena relación con el entrevistado. Las preguntas demográficas pueden
intercalarse a lo largo de la entrevista.

Al inicio de la entrevista es necesario hacer una presentación personal y del propósito


del estudio, informando qué se hará con los resultados, la confidencialidad de los datos,
que se tomarán notas y solicitar permiso para grabar la entrevista. Es conveniente
indicar también por qué ha sido seleccionado el entrevistado.

Tipos de preguntas en una entrevista

• Sobre la experiencia o el comportamiento: Iniciar con una pregunta que el


investigador sabe y que puede ser un buen inicio de la conversación.
• Preguntas de opinión y de sentimiento: las primeras son acerca de lo que la
gente piensa sobre algo, hace referencia a sus valores y las de sentimiento se
refieren a cómo los entrevistados se sientes ante un determinado hecho.
• Preguntas de conocimiento: Suelen ser un tanto incómodas, porque tratan acerca
de conocimientos que tiene las personas sobre hechos. Si el entrevistado no tiene
conocimientos, podría sentirse molesto porque cree que debe saber algo.
• Preguntas sobre sensibilidad. Se refieren a la experiencia sensible (tacto, olor,
etc.) que permiten al entrevistador empatizar con el entrevistado.
• Preguntas demográficas o de la historia personal del entrevistado, cuya finalidad
es la de obtener las características del entrevistado y una descripción de la
muestra de estudio

La entrevista de grupos (focus group o grupos de discusión)

La finalidad de la entrevista en la que participa un grupo es obtener diferentes


perspectivas de cómo perciben o comprenden el problema de investigación. La
entrevista de grupo tiene rasgos similares a la entrevista individual y a la observación
participante.

Este tipo de entrevista suele usarse cuando el tópico aún no ha sido explorado, es nuevo
para el investigador y hay poca información disponible. El grupo de discusión puede
generar ideas y proporcionar preguntas para la investigación. La entrevista de grupo
puede ser un medio eficaz para delimitar el tema de investigación.

Dos cuestiones deben ser consideradas en la entrevista de grupo: quiénes forman parte
del grupo de discusión y qué preguntas se harán.

Es recomendable que los grupos sean pequeños para asegurar que todos tomen parte en
la discusión, pero que sean lo suficientemente grandes para que contribuyan a la
diversidad de las perspectivas. (No menos de 4 ni más de 12 participantes).

111  
 
El papel del entrevistador es el de moderador, el trabajo del entrevistador es promover
que las personas participen y por lo tanto debe evitar que permanezcan mucho tiempo
calladas.

Análisis de datos y rigor de la investigación

Consiste en dar al conjunto de datos contenidos en las notas, entrevistas, observaciones


y documentos, una correcta clasificación y un orden a todo ese montón de cosas que se
ha ido generando a través de sus técnicas; de esta forma se permite saber qué cosas
faltan y qué cosas no encajan dentro de la descripción y el análisis que se está haciendo.

El análisis cualitativo procede de modo inductivo, que tiene una doble dirección, desde
los datos se crean las categorías, las cuales facilitan la lectura de datos nuevos.

Analizar cualitativamente es dar sentido a un conjunto de datos configurando categorías


dentro de un sistema teórico, que a su vez, consigue dar sentido a los datos.

El rigor o validez de la investigación cualitativa. La validez de cualquier investigación


sea cuantitativa o cualitativa depende sustancialmente del procedimiento y la
adecuación de la toma de decisiones durante el proceso. El investigador es responsable
de mostrar cómo ha llegado a dicha interpretación, lo cual, implica una justificación
constante de la interpretación y su registro en los propios datos. También se debe
informar de la literatura revisada, ya puede proporcionar un contexto desde el cual se
puede interpretar los datos generados.

12. Informe de investigación y ética


Contenidos

1. 1 Introducción
2. 2 La función del informe de investigación
3. 3 Guias generales de estilo de redacción (Estilo APA)
4. 4 Tipos de informe de investigación
1. 4.1 Principales características a seguir en la redacción de un informe
2. 4.2 Algunas estrategias para redactar un informe de investigación
5. 5 Estructura del informe
1. 5.1 Titulo, autores y filiación y nota del autor
2. 5.2 Resumen y Abstract
3. 5.3 Introducción
4. 5.4 Método
6. 6 Apariencia física del documento
1. 6.1 Principales aspectos formales
7. 7 Fuentes documentales
8. 8 Ética en el proceso de investigación
1. 8.1 Investigación con personas
112  
 
1. 8.1.1 Distintos reglamentos sobre la ética en Psicología
2. 8.1.2 Confidencialidad, anonimato y privacidad
3. 8.1.3 Estrés o incomodidad
2. 8.2 Consentimiento informado
1. 8.2.1 Engaño
2. 8.2.2 Entrevista de salida
3. 8.3 Investigación con animales
9. 9 Ética en la publicación y difusión de los resultados
1. 9.1 Falsedad de los resultados y las conclusiones
2. 9.2 Plagio
3. 9.3 Duplicación de las publicaciones

Introducción

Como se ha visto, llevar a cabo una investigación implica: que el investigador intuye la
existencia de un problema, se documenta sobre él y constata que no tiene solución por
el momento, plantea las hipótesis posibles, elige la mejor metodología para contrastar
sus hipótesis, selecciona la muestra de sujetos y mide en ella las variables (previamente
operativizada) reflejadas en las hipótesis, analiza los datos obtenidos, interpreta y saca
conclusiones de los resultados y por último da a conocer esos datos.

Tras todo esto, el último paso es difundir las conclusiones obtenidas a las personas
interesadas.

La difusión de los descubrimientos procedentes de la investigación, otorga un papel


muy importante al informe de investigación o reporte. Además de la difusión de los
resultados es sumamente importante el código ético que toda ciencia cuyo objeto de
estudio son los seres vivos, humanos o animales, tienen que tener. La Psicología se
sirve de diversos códigos éticos que garantían el equilibrio entre los derechos de los
seres vivos participantes en el estudio y la ampliación del conocimiento científico.

La función del informe de investigación

La función del informe es doble:

1. constituye la herramienta de comunicación de los resultados siempre que estos


supongan una contribución importante a la disciplina, la Psicología en este caso,
y
2. aumenta el conjunto de conocimientos previos sobre un área determinada que
servirán de base a las investigaciones posteriores. Como por ejemplo los avances
actuales sobre la mente humana se fundamentan en los descubrimientos de
Santiago Ramón y Cajal, el psicoanalista Sigmund Freud, el neurólogo Alois
Alzheimer y muchos otros.

La comunicación debe ser fluida y normalizada cuando se escribe un informe, hay que
seguir unos puntos prefijados conocidos y empleados por todos los investigadores para
facilitar su lectura y la replicación del estudio.
113  
 
Guias generales de estilo de redacción (Estilo APA)

Según el Diccionario de la Real Academia de la Lengua Española se define estilo como:


"Manera de escribir o hablar peculiar de un escrito o de un orador" pero no es este el
objetivo de la comunicación de los resultados de un experimento o al citar las fuentes en
las cuales se basa un estudio, sino más bien los guiones que siguen los investigadores,
es decir, adoptar un estilo de redacción entendido como un acuerdo respecto a aspectos
estructurales, formales, de paginación, y mecánicos a seguir en la redacción del
informe.

Una de las guías más importantes es "El Manual de Estilo de Publicaciones" de la


American Psycological Associatión. Un escrito con estilo "APA" sigue el estilo
editorial que muchas ciencias sociales y de la conducta adoptan para presentar los
informes escritos, pero adoptar un estilo de redacción no significa renunciar al personal,
ni una tarea tediosa, sino todo lo contrario, pues el informe tiene que ser interesante,
atractivo, directo, claro y preciso.

Existen otros estilos de publicación como el estilo CSE, el estilo Vancouver, el estilo
MLA.

Además, cada revista establece sus propias normas. Pero el que más se usa en
Psicología es el APA fundada en 1892, es la principal organización científica y
profesional de Psicólogos de los Estados Unidos. En este manual se recogen las
directrices y reglas que se deben adoptar para la presentación de cualquier material
escrito haciendo referencia a elementos como: la puntuación, las abreviaturas, la
construcción de tablas, la selección de títulos, la citación de referencias, la presentación
de resultados estadísticos, etc.

Tipos de informe de investigación

El concepto informe de investigación engloba distintos tipos de manuscritos que


comparten estructura pero se diferencian en la importancia que otorgan a cada una de
sus partes. Se distinguen tres tipos:

1. Las tesis o proyecto fin de carrera: se caracterizan por la precisión y el detalle


con que se describe el proceso de investigación, siendo de suma importancia el
marco conceptual y la revisión bibliográfica en la que se basa.
2. Potencias y comunicaciones orales: se centran en los resultaos y la discusión de
los mismos, destaca que en su presentación el ponente suele utilizar medios
audio visuales, lo que hace que se comprenda mejor el contenido.
3. Informes de estudios empíricos: breves de unas 15-20 páginas. La introducción
y el método no son muy extensos, mientras el apartado dedicado a resultados y
la discusión de los mismos son los más destacados. Los artículos de revistas,
artículos de reseñas o recensión, artículos teóricos, metodológicos o estudios de
casos suelen contener estudios empíricos. Características de ellos:
o Informes de estudios empíricos: son informes de investigación
originales, tiene apartados que coinciden con las distintas fases del
proceso de investigación (introducción, métodos, resultados y discusión.
o Artículos de reseña o recensión: son evaluaciones críticas ha cerca del
material ya publicado. Revisión exhaustiva de los conocimientos ya

114  
 
existentes sobre un problema determinado, permite: definir y clasificar el
problema, sintetizar las investigaciones previas con la finalidad de
informar acerca del estado de una investigación en curso.
o Artículos teóricos: el autor se apoya en la literatura de investigación ya
existente para avanzar en la teoría de cualquier área de una determinada
disciplina. Son similares a los de reseña o recesión en cuanto a su
estructura, pero estos sólo presentan información empírica cuando afecta
a aspectos teóricos. Se examina la consistencia interna y externa de una
teoría, la superioridad de una teoría sobre otra, el desarrollo de un nuevo
enfoque teórico, etc.
o Artículos metodológicos: se presentan aproximaciones metodológicas
nuevas, modificaciones de métodos existentes así como discusiones
sobre enfoques cualitativos y cuantitativos de análisis de datos.
o Estudios de casos: se describen los resultados obtenidos al trabajar con
un único individuo, con el objetivo de ilustrar un problema, indicar algún
modo de resolverlo y esclarecer la investigación o determinados
elementos teóricos. Hay que tener especial cuidado de lo poner en
peligro el anonimato del participante en la investigación.

Principales características a seguir en la redacción de un informe

Todo informe de investigación debe tener unas características generales entre las que
destacan: la expresión ordenada, clara y precisa de las ideas que contiene, y la expresión
fluida y según el principio de economía de la expresión de sus argumentos (principio de
parsimonia).

La presentación de las ideas debe estar organizada con un hilo argumental que enlace
todo el escrito desde el comienzo hasta su fin. Hay herramientas que facilitan esta
continuidad como los signos de puntuación, los nexos. No se debe abusar de los signos
de puntuación, pues se interrumpiría el flujo de comunicación, molestando al lector,
pero su escasez dificultaría la lectura. Los nexos ayudan a mantener el flujo de
pensamiento sobre todo cuando lo que se lee es complejo o abstracto. Entre estos nexos
estarían: los pronombres, las preposiciones, conjunciones, adverbios.

La comunicación científica debe ser clara, sin altibajos, ni cambios bruscos, lo que no
significa que tenga que ser monótona. Para esta escritura equilibrada son muy
importantes los tiempos verbales. Mejor usar el pretérito perfecto simple o pasado
(Piaget demostró), y el pretérito perfecto compuesto (los investigadores han empleado)
para hacer referencia a eventos pasados, estas formas verbales se emplearían
principalmente en los apartados de introducción y resultados.

Se recomienda el uso del presente para invitar al lector a involucrarse. Dentro de un


apartado es importante mantener el tiempo elegido. Preferible la voz activa que la
pasiva (aplicamos la encuesta en un ambiente controlado) a no ser que se quiera dar más
importancia al objeto directo o a quien recibe la acción, más que al que la realiza. Los
sinónimos también se emplean para conseguir fluidez. En el escrito científico prima la
afirmación "lo bueno si breve dos veces bueno".

Guillermo de Ockham formuló el principio de parsimonia, que dice que siempre debe
adoptarse la explicación con el menor número posible de causas, factores o variables lo

115  
 
que en la época se conoció como la Navaja de Ockham. Se debe evitar la jerga, la
palabrería y la redundancia. Para ello y para que nuestro escrito sea claro se debe:

• Elegir las palabras adecuadas para expresar nuestras ideas de forma exacta.
• Eludir coloquialismos y expresiones que tengas distintas interpretaciones.
• Evitar el uso de antropomorfismos (por ejemplo cuando decimos: "las tablas
comparan" pues esta característica no la puede hacer una tabla, por lo que lo
correcto sería "las tablas muestran o indican".
• Emplear pronombres que aludan inequívocamente al sustantivo, sin necesidad
de que el que lo lee tenga que buscarlos en el texto.

Algunas estrategias para redactar un informe de investigación

Son muchas las estrategias que cada autor emplea para redactar un informe de
investigación (cada maestrillo tiene su librillo) pero se pueden destacar tres:

1. Desarrollar el texto a partir de un borrador o esquema, permite organizar las


ideas principales, resaltar las incongruencias etc.
2. Dejar a un lado el primer borrador para corregirlo pasado un tiempo, nos permite
acercarnos al texto con una actitud diferente, lo que nos facilita encontrar
errores.
3. Pedir a alguien que critique el borrador, se consigue una revisión crítica del
escrito, si lo revisan dos mejor, siempre una crítica constructiva.

Estructura del informe

Los puntos prefijados para redactar un informe de investigación no son siempre los
mismos, pues dependen del tipo de investigación y de la ciencia estudiada. Un informe
cualitativo tiene ciertas características propias como: ausencia de hipótesis específicas y
cuantificables que someter a prueba, la precisión de la definición de las variables, etc.

Pero también hay una estructura común a todo informe de investigación:

• Titulo, autor/es, y nota de autor.


• Resumen y Abstract.
• Introducción.
• Método.
• Resultados.
• Discusión.
• Referencias bibliográficas.
• Apéndices (si los hay).

Estos apartados son esenciales para el informe y contiene las respuestas del autor a una
serie de preguntas. En la introducción se responde a ¿Qué se hizo? y ¿Por qué se hizo?,
el Método a¿ Cómo se hizo?, los Resultados a ¿Qué se encontró ¿(donde se incluyen
detalles de cómo se analizaron los datos), y por último la discusión da respuesta a la
pregunta ¿Qué significados tienen los resultados obtenidos?.

Titulo, autores y filiación y nota del autor

116  
 
El titulo es una de las secciones más importantes del informe, pues va a ser una de las
más leídas.

Indica el objetivo de la investigación responde a la pregunta, ¿de qué trata el estudio?


por lo que debe contener las principales variables VVDD y VVII implicadas en la
investigación. Ser breve (entre 10 y 12 palabras) y conciso (no informar más de lo
necesario).

Otro componente es la información relativa al autor/es y a la filiación del mismo/s, es


decir, sus nombres, y a la/s institución/es que pertenece/n (universidad, instituto o
empresa). No se debe incluir más de dos filiaciones por autor, si no tiene filiación
institucional se facilita la ciudad y provincia donde reside.

La nota de autor, en ella se identifica:

• El departamento de filiación de cada autor: nombre de autor, del departamento,


de la ciudad; siguiente autor, lo mismo en el mismo orden.
• Cambios en la filiación (si los hay): se usa la siguiente expresión: Nombre del
autor, está ahora en filiación.
• Agradecimientos y circunstancias especiales. Becas u otras fuentes de
financiación recibidas para la investigación, y se da las gracias a los colegas que
han colaborado con su crítica constructiva, en la elaboración del manuscrito.
Pero no a los editores, revisores, etc. Se hace referencia también a cualquier
circunstancia especial, o conflicto de interés.
• Persona de contacto. Se proporciona la dirección postal completa y una
dirección electrónica, para que el lector que así lo quiera pueda contactar con el
autor/es. Este apartado no se requiere en tesis, tesinas proyectos de fin de carrera
u otras disertaciones.

Resumen y Abstract

Consta de un párrafo en torno a 120 palabras que contiene información sobre:

• el problema que se investiga,


• el método empleado incluyendo las pruebas y aparatos, utilizados, el
procedimiento de recogida de datos y las características de los participantes,
• los resultados y
• las conclusiones.

El resumen al ser una tarea difícil, se dejará para el final. Los escritos presentados en
habla no inglesa tienen que incluir con el resumen un abstract (traducción del resumen
al inglés). Muchas revistas requieren que el autor designe un conjunto de 4 a 8 palabras
clave (keywords) pues van a ser muy importantes para su búsqueda en internet o bases
de datos.

Introducción

En esta sección, no hay que escribir el nombre "introducción" en el informe, pues se


identifica claramente por su posición en el mismo.

117  
 
En esta sección se describe de manera general el problema que se aborda en la
investigación, responde a las preguntas: ¿Qué se hizo? y ¿Por qué se hizo? Se citan los
estudios relacionados con los problemas y se deja claro que hasta el momento no tiene
solución. Lo que debe proporcionar la sección introducción es la relación entre la
investigación y los estudios previos relacionados. Para esto se recurre a la revisión
bibliográfica de investigadores precedentes sobre la misma temática, y se seleccionan
los estudios que se relacionan de manera más directa con nuestra investigación. Citando
las contribuciones de otros autores que nos han ayudado. Esto se realiza de dos formas:

1. Citándoles a los autores del artículo, capítulo o libro, por sus apellidos y luego el
año en el que fue publicado entre paréntesis.
2. Haciendo una referencia textual al trabajo seguido de los apellidos de los autores
y año de publicación todo ello en paréntesis. Si en el mismo paréntesis se citan
trabajos realizados por varios autores, se citarán por orden alfabético.

Es muy importante que las referencias que se citan en el texto aparezcan en la lista de
referencias.

La redacción de introducción debe plantearse como la forma de trazar la línea


argumental que parte de estudios previos no necesariamente muy antiguos y que nos
lleva hasta la situación actual en la que nos encontramos. Esta manera de realizar la
introducción facilita la justificación de la investigación.

Además de introducir el problema a estudiar, justificar la investigación y reflejar cómo


se encuentra el área sobre la que versará el estudio, se deben expresar formalmente las
predicciones de la investigación, es decir, presentar las hipótesis, aunque algunas veces
no se lleguen a explicar. Un fallo muy frecuente es escribir las hipótesis nulas, es un
error, porque no son una predicción de lo que sucederá.

En este apartado tanto las predicciones como las hipótesis se deben presentar en
términos operacionales, para lo que se deben definir, de forma clara e inequívoca las
variables implicadas en dichas predicciones, o hipótesis.

En este apartado no se debe hacer mención alguna al resultado de la investigación.

Método

Este apartado se inicia en la misma página que termina la introducción, y en él se debe


detallar como se ha desarrollado la investigación, es decir, el investigador responde a la
pregunta ¿Cómo se hizo? Una buena redacción del método servirá para que otros
investigadores puedan replicar el estudio, además de facilitar el evaluar la calidad del
mismo (su fiabilidad y validez). Se duele dividir este apartado en: participantes y
materiales, aparatos, instrumentos y procedimiento.

Algunas revistas incluyen también el apartado diseño, donde se aporta una visión
general de la estructura formal del experimento, es decir, el diseño empleado.

El apartado método se divide en:

1. Participantes
118  
 
o información sobre las personas que participaron en la investigación;
quienes cuantos, a que población pertenecen, sus características
sociodemográficas (en el caso de ser personas), como se seleccionaron.
También recibe el nombre de muestra. También se deben reflejar los
participantes que no terminaron la investigación debido al abandono
(muerte experimental) o que fueron eliminados.
2. Materiales, aparatos e instrumentos
o se detalla el equipamiento utilizado aparatos, materiales y su papel en la
investigación. Si los instrumentos usados son nuevos se deben describir
de forma exhaustiva e independiente. Si son materiales conocidos, sólo
se nombran y se hace una breve descripción.
3. Procedimiento
o se describe como se realizó la investigación paso a paso desde el
principio hasta el final de forma cronológica. Como eran las condiciones
experimentales, si todos los participantes se expusieron a ellas en el
mismo orden o el orden de presentación fue aleatorio, cual fue el
intervalo entre dos experimentos.
4. Resultados
o responde a la pregunta ¿Qué se encontró?, se muestran los datos
obtenidos de forma resumida, para ello recurrimos a la estadística
descriptiva (índices de tendencia central, y de dispersión como son la
media y la desviación típica. Por otro lado a la estadística de contraste o
inferencial que nos aporta información sobre la falsación o no de
nuestras hipótesis nulas. Cuando nos servimos de la estadística
inferencial debemos aportar datos relativos:
§ Al nombre de la prueba aplicada sin que sea necesario justificar
la elección de la misma.
§ A los grados de libertad.
§ Al valor que se obtuvo del estadístico de prueba.
§ A la significación estadística alcanzada.
§ Es conveniente incluir información sobre el tamaño del efecto y
la potencia del contraste.
5. En cuanto al apartado de discusión
o responde a la pregunta ¿Qué significado tienen los resultados obtenido?
No se tiene que repetir lo dicho en el aportado de resultados, sino,
conectar estos resultados obtenidos con los que se señaló en la
introducción que se esperaban encontrar, es decir, con la expresión
formal de las hipótesis.
§ Se comienza explicando los principales hallazgos.
§ Comenzaremos las semejanzas y diferencias con otras
investigaciones previas sobre la misma temática, intentando dar
una explicación constructiva.
§ Terminaremos con un párrafo breve y rotundo donde se explique
cómo ha solucionado el problema planteado en la investigación y
cuál ha sido la principal aportación del trabajo. Es decir, con unas
conclusiones sobre la investigación. Pero antes es bueno hacer
una mención a las limitaciones del estudio, lo que nos llevará a
proponer futuras investigaciones sobre el problema.
6. Referencias bibliográficas

119  
 
o listado ordenado alfabéticamente de autores y publicaciones de las que se
ha hecho mención en el informe. Se diferencia de la bibliografía de que
esta es un listado, lo más exhaustivo posible de las publicaciones
existentes sobre un tema, independientemente de que se haya o no citado
en el informe de investigación. Se pueden describir una serie de pautas a
la hora de redactar la lista de referencias bibliográficas:
§ Las referencias deben ser escritas en orden alfabético, si son de
un mismo autor se ordenan por orden de publicación apareciendo
primero la más antigua, si el año de publicación también es el
mismo se diferenciarán las referencias añadiendo una letra anexa
después del año, cuando un apellido es compuesto se ordena
según la preposición esta estará incluida en la cita, si el autor es
una razón social hay que ordenar la referencia de acuerdo a la
primera palabra significativa de su nombre, si la referencia es de
dos autores estos se escriben con el mismo formato pero unidos
por una "y griega", si la obra está escrita por tres o más autores se
enumeran separados por comas en el orden que se haya
establecido en la fuente salvo el último que se asocia a los
colegas por la y griega o & si está escrita en inglés.

Apariencia física del documento

Dentro de esta envoltura puramente estética del manuscrito se pueden destacar dos
aspectos: formales y mecánicos.

Aspectos formales: Hacen referencia al conjunto de indicaciones generales que


debemos seguir en la preparación de un manuscrito en papel: tamaño de papel, tipo de
letra, márgenes, etc.

Principales aspectos formales

Papel: el manuscrito debe imprimirse en papel estándar blanco (tamaño A4) por una
sola cara, siendo todas las páginas del informe de la misma medida.

Tipo de letra: utilice una tipología similar a Times New Roman de 12 puntos o a
Courier New de 12 puntos, puesto que mejoran la lectura, reduciendo la fatiga visual.

Espacios: el interlineado debe ser doble, es decir, se deja una línea completa en blanco
entre cada línea de tipografía en la página.

Márgenes: deben dejarse márgenes uniformes de, al menos, una pulgada (2`54cm) en la
parte superior, inferior, derecha e izquierda de cada página.

Orden de las páginas: hay que numerar todas las páginas de forma consecutiva (en la
esquina superior derecha en números arábigos) excepto las determinadas a la colocación
de ilustraciones o figuras. Las páginas del manuscrito se disponen de la siguiente
manera (cada uno de estos apartados comienza en una página aparte):

• portadilla con encabezado, título, nombre del autor, afiliación institucional y


nota de autor (numerada como página 1).
120  
 
• resumen (numerada con página 2).
• texto (numerada con página 3).
• referencias.
• pies de página (lístelos juntos)
• apéndices.
• tablas.
• figuras.

Aspectos mecánicos: Hacen referencia al estilo editorial que trata el uso uniforme de la
puntuación y las abreviaturas, la construcción de tablas, la selección de encabezados,
etc.

Uso de cursivas y abreviaturas: se utilizan para los títulos de libros y publicaciones, la


presentación de un término nuevo, letras utilizadas como símbolos estadísticos o
variables algebraicas y en las referencias bibliográficas para hacer mención además de
al nombre de la revista o publicación, al número de volumen.

El APA recomienda el uso moderado de cursivas.

Número y material estadístico: la regla del APA para el uso de números es la de utilizar
la expresión numérica cuando nos referimos a cantidades iguales o mayores de 10 y
emplear palabras para expresar números menores de esta cantidad.

El material estadístico y matemático, se puede representar en el texto de diferentes


formas, pero como norma general:

• si tiene 3 números o menos se usa un enunciado,


• si tiene entre 4 y 20 números es preferible utilizar un gráfico o figura.

Tablas: cualquier tipo de ilustración distinta de una tabla se denomina figura, una figura
puede ser: un diagrama, un gráfico, una fotografía, un dibujo, u otro tipo de
representación. Todas comparten una serie de estándares para ser consideradas buenas
figuras: la sencillez y claridad, el enriquecer el texto sin duplicarlo, comunicar sólo
hechos esenciales, l omitir los detalles que visualmente nos pueden distraer y el ser fácil
de leer.

Notas a pie de página y apéndices las notas de página dentro del texto pueden ser:

• Notas a pie de páginas: de contenido que aporta información importante al texto


completándolo o profundizando en el mismo. Comunicaran sólo una idea.
• Notas a pie de página de autorización: por propiedad literaria, que reconocen la
fuente de las citas.
• Notas para las tablas: se colocan debajo de las tablas y explican los datos de las
mismas o proporcionan información adicional.
• Notas de autor: en cada artículo impreso se presenta una nota a cerca del autor
para identificar su afiliación a un departamento (universitario, hospitalario, etc.)
y proporcionar una forma de contacto al lector que esté interesado.

Por otra parte, los apéndices tienen dos finalidades.

121  
 
1. Permiten que el autor proporcione información detallada que, si estuviera
incluida en el cuerpo principal del artículo, distraería al lector.
2. Posibilitan una mayor flexibilidad con las reglas de estilo, al poder ser de
diversa índole los contenidos incluidos en ellos (pruebas, cuestionarios, tablas,
etc.) y poder tener formatos muy diversos.

Fuentes documentales

La función del informe de investigación es doble: servir de herramienta de


comunicación de los resultados obtenidos e incrementar el conjunto de conocimientos
que existen sobre un área determinada y que servirán de base a investigadores
posteriores. Al informe de investigación, deben tener acceso la mayor parte de la
comunidad científica a través de canales de difusión, estos son la base de las fuentes
documentales sobre las que se apoyará, los futuros estudios.

Una fuente documental es cualquier material que sirve de información a un investigador


o de inspiración a un autor.

Hay que diferenciar entre lo que es una fuente y un documento, siendo el documento
(cualquier soporte de cualquier índole que contenga información de interés para una
determinada materia) el soporte de la fuente.

Se pueden distinguir tres tipos de fuentes documentales:

1. Fuente documental primeria: documento original, donde la información se


presenta completa, detallada y escrita en un lenguaje técnico; como los libros,
los artículos de publicaciones periódicas (revistas) las tesis doctorales, las actas
de congresos, etc. Para acceder a las fuentes documentales primarias iremos a
bibliotecas, hemerotecas, a la mediateca, a la docimoteca (consultas de test u
otros materiales de evaluación psicológica y psicoeducativa).
2. Fuente documental secundaria: es un documento basado en fuentes primario,
reelaboración o tratamiento de información que aparece en la fuente primaria:
generalización, almacenamiento, análisis, síntesis, clasificación, interpretación,
evaluación e indexación. Simplifican la información existente sobre un
determinado tema, y permiten la localización de las fuentes de documentación
primarias. Entre las fuentes secundarias se pueden destacar: catálogos,
bibliografías y bases de datos referenciales. Estas pueden contener información
multidisciplinar, pueden contener información de carácter bibliográfico o
textual, es decir, pueden facilitarnos información descriptiva de nuestra
búsqueda o pueden darnos acceso al texto completo. Para llevar a cabo una
búsqueda en una base de datos especializada, es muy importante los términos
que elegimos para realizarla lo que se conocen como palabras claves o keywords
que deben escribirse en inglés, pues la mayor parte de la bibliografía científica
está en este idioma.
3. Fuente documental terciaria: documentos que compendian las fuentes
secundarias como: los nombres y títulos de revistas, así, como nombres de
boletines, conferencias y simposios, los títulos de reportes de información
gubernamental, los nombres de instituciones al servicio de la investigación, etc.
Son útiles para detectar fuentes no documentales como organizaciones que
realizan o apoyan estudios, miembros de asociaciones científicas, instituciones

122  
 
de educación superior, agencias informativas y dependencias del gobierno que
efectúan investigaciones.

Ética en el proceso de investigación

Cualquier investigación que se plantee debe considerar la razón riesgo/beneficio, es


decir, la relación de los riesgos que conlleva para los participantes el formar parte del
estudio, y los beneficios potenciales, tanto para los individuos participante como para la
sociedad. El código de Nüremberg es el documento más importante en la historia de la
ética en investigación médica y ha servido de base a todos los códigos posteriores como
la Declaración de Helsinki, y los distintos códigos éticos de la Organización Mundial de
la Salud y de las Naciones Unidas.

El código de Nüremberg recoge una serie de principios que rigen la experimentación


con seres humanos. Dicho código responde a las deliberaciones y argumentos por los
que fueron enjuiciadas la jerarquía nazi y algunos de sus médicos debido al tratamiento
inhumano que dieron a sus prisioneros.

Si nos centramos en la Psicología sociedades como la British Psychological Society


(BPS) y la American Psychological Associatión (APA) han acordado las directrices
sobre los aspectos éticos relacionados con la investigación en esta área de conocimiento.
La mayor parte de estos códigos éticos de diferentes instituciones cubren una serie de
ámbitos como la confidencialidad, el anonimato y la privacidad, las condiciones
experimentales, el derecho a no participar, y la regulación del engaño.

Investigación con personas

La psicología es la ciencia que estudia la conducta de los individuos- personas y


animales- y sus procesos mentales, incluyendo sus mecanismos internos y las
influencias que producen en su entorno físico y/o social. Cualquier investigación con
personas debe guiarse por unas consideraciones éticas determinadas.

Distintos reglamentos sobre la ética en Psicología

1. Principios Éticos del Psicólogo y Códigos de Conducta de la American


Psychological Associatión (APA) de 2002. Toda la información relacionada con
la oficina de ética del APA (códigos, libros de casos, información adicional,
etc.) se encuentra disponible en la dirección www.apa.org/ethics/
2. Metacódigo de Ética de la Federación Europea de Asociaciones de Psicólogos
(EFPA) de 2003 se puede consultar en la página
web http/www.efpa.eu/ethics/ethical-codes/
3. El Código Deontológico del Psicólogo realizado por la Comisión Deontológica
Estatal de los Colegios Oficiales de Psicólogos (COP) en 1993. Dicho código se
encuentra íntegramente recogido en libro Ética y Deontología para Psicólogos
publicado por el COP en 2004 y que se puede descargar
en http/www.cop.es./pd/ética.pdf
4. Reglamento del Comité de Bioética de la UNED 2007. Dicho comité pertenece
al Vicerrectorado de Investigación de la UNED, por lo que en la página de la
UNED (http:/www.uned.es) dentro de tú universidad/Áreas de
Dirección/Investigación/Comité de Bioética, puede consultar toda la

123  
 
información relativa a sus áreas de competencia, sus líneas de actuación, su
reglamento.

Confidencialidad, anonimato y privacidad

El investigador debe asegurar el anonimato de los participantes.

Es importante distinguir entre anonimato y confidencialidad. Una vez que los resultados
son publicados dejan de ser confidenciales, pero siguen siendo anónimos. La
confidencialidad es una característica relacionada más directamente relacionada con la
práctica psicológica, con la parte más clínica o aplicada, que con la investigación y la
publicación de los resultados. Consiste en mantener la privacidad de los datos de los
pacientes.

El participante en cualquier estudio tiene derecho a la privacidad, los procedimientos no


pueden invadirle directamente sin advertirlo antes.

Estrés o incomodidad

No es que no esté permitido provocar estrés o incomodidad a los participantes, el


problema está en decidir en que grado de estrés o incomodidad, física o mental es
inaceptable. El investigador tiene la obligación de asegurar que los participantes no
sufran innecesariamente, y tiene que facilitar a los participantes la forma de contactar
con él cuando sientan algún tipo de perjuicio derivado de la participación.

Consentimiento informado

En el se describen los procedimientos de la investigación con claridad, se identifica


cualquier riesgo potencial que pueda influir en la voluntad de los individuos a
participar, y se compromete a responder cualquier pregunta que el participante tenga
sobre la investigación.

El participante se compromete a comportarse apropiadamente durante la investigación,


no mintiendo, engañando o actuando de otras formas fraudulentas. Si los participantes
son menores de edad el consentimiento se debe obtener de sus representantes legales,
sin someter a los menores a una gran tensión. Lo mismo sucede con los adultos
incapacitados.

El consentimiento informado no siempre es posible de obtener antes de la investigación.

Como en determinados experimentos que emplean la observación o en el caso donde es


necesario el engaño, el consentimiento tendría que ser, en caso de darse, necesariamente
parcial o incompleto.

Engaño

Es una práctica común en la investigación psicológica, (técnica de control simple


ciego). El engaño por su naturaleza viola el principio de consentimiento informado,
pero se considera una estrategia de investigación necesaria en ciertas áreas de la
Psicología. Algunos engaños son inocuos, como hacer creer al paciente que va a realizar
124  
 
una prueba de lectura y luego peguntarle por las palabras que recuerda. Pero existe otro
tipo de engaño más grave, como el famoso experimento de Milgran (lo tenéis detallado
en el curso virtual de la asignatura).

Según diversas normas éticas no se deben llevar a cabo investigaciones que impliquen
engaño a menos que se haya determinado su justificación por un valor científico,
educativo.

El empleo de placebos puede constituir un engaño relacionado con la ética de la


investigación. Se debe señalar también que no sólo el participante es engañado, también
el investigador puede serlo al desconocer la hipótesis de trabajo (diseño doble ciego).

Entrevista de salida

El investigador debe eliminar los efectos negativos a largo plazo derivados de los
procedimientos de investigación psicológica y debe facilitar a los participantes la forma
de contactar con él cuando sientan tensión o algún otro tipo de perjuicio derivado de la
participación en el estudio. Esta entrevista es imprescindible cuando se ha empleado el
engaño o cuando la conducta del sujeto es reprobable, tanto moral como
cognitivamente.

Investigación con animales

En Psicología es habitual el estudio de la conducta animal. La investigación con


animales siempre ha dado lugar a un intenso debate sobre si es o no necesario investigar
con ellos. Pero es que la investigación con animales supone poder avanzar en el
conocimiento científico, para poder aplicar dichos hallazgos en beneficio del ser
humano, sin tener que poner a las personas en riesgo. Pero, esta investigación con
animales no está libre de polémica, hay quien dice que los animales no pueden negarse
a participar, pero lo que más genera debate es que se les somete a condiciones de
incomodidad, estrés, tensión mental, niveles extremos de dolor físico, enfermedad e
incluso muerte. La investigación con animales es una actividad altamente regulada con
el objetivo primordial de proteger su bienestar durante la investigación.

Ética en la publicación y difusión de los resultados

Todo informe de investigación debe guiarse por un código ético que regula situaciones
indeseables como el plagio, la falsificación o inversión de datos, la duplicación de las
publicaciones, etc.

Falsedad de los resultados y las conclusiones

Dentro del código ético del APA se hace referencia al informe de los resultados que
dice:

• los psicólogos no fabrican datos, ni falsifican resultados en sus publicaciones,


• si los psicólogos descubren errores significativos en sus datos ya publicados,
entonces toman las medidas necesarias para corregirlos mediante publicaciones
de retracción, fe de erratas o similares.

125  
 
Son muy llamativos los casos en los que los científicos se hacen famosos inventando
sus resultados.

Plagio

En el APA también se afirma "los psicólogos no presentan partes sustanciales o


elementos de trabajo o datos de otra persona como si fueran propios". Aunque no todo
lo que aparezca en el informe de investigación puede ser novedoso, es necesario que
citemos las fuentes en las que nos hemos basado para llevar a cabo el estudio.

Duplicación de las publicaciones

En el APA también se dice "los psicólogos no publican como datos originales datos que
antes han sido publicados". El que utilicemos nuestro propio trabajo no es garantía de
que no haya plagio, ya que a la práctica de publicar el mismo trabajo varias veces como
si fuera novedoso se le puede denominar auto-plagio.

La mejor forma de evitar las acusaciones de auto-plagio es familiarizarse con los


estándares éticos respecto a la duplicación de publicaciones.

126  
 

Das könnte Ihnen auch gefallen