Beruflich Dokumente
Kultur Dokumente
2013
Indice
Unidad 1: Nociones Generales ...................................................................................................... 5
Capítulo 1: Tres aproximaciones a la ciencia. Marradi ............................................................. 5
Galileo y el método experimental ......................................................................................... 5
Límites del modo experimental ............................................................................................ 5
La matriz de datos y el supuesto atomista ............................................................................ 6
El método de la asociación .................................................................................................... 6
El enfoque que se contrapone a la visión estándar .............................................................. 6
Capítulo 2: Los debates metodológicos contemporáneos. Marradi ......................................... 7
El debate intrapositivista....................................................................................................... 7
Las críticas al positivismo y los enfoques no estándar .......................................................... 8
Las propuestas de superación del debate cualitativo-cuantitativo: la triangulación
metodológica y sus límites .................................................................................................. 11
Capítulo 3: Método, metodología, técnicas. Marradi ............................................................. 12
La visión científica del método ............................................................................................ 12
Críticas a la visión clásica..................................................................................................... 12
Método y metodología........................................................................................................ 12
Las técnicas.......................................................................................................................... 13
Epistemología y gnoseología ............................................................................................... 14
Capítulo 5: el diseño de la investigación. Marradi .................................................................. 15
Introducción ........................................................................................................................ 15
Características del diseño de la investigación ..................................................................... 15
La elección de un tema, delimitaciones del problema y su operativización ....................... 16
Formalización del diseño: el proyecto de investigación ..................................................... 18
La Construcción del Objeto. Bourdieu .................................................................................... 19
El hecho se construye: las reformas de la renuncia empirista ............................................ 19
Las abdicaciones del empirismo .......................................................................................... 19
Hipótesis o supuestos.......................................................................................................... 20
La falsa neutralidad de las técnicas: objeto construido o artefacto ................................... 20
La analogía y la construcción de la hipótesis ...................................................................... 20
Modelo y teoría ................................................................................................................... 21
Estrategias o diseños de investigación científica. Ynoub ........................................................ 22
El concepto de “diseño” de una investigación .................................................................... 22
Los objetos de muchas ciencias físicas poseen una característica que no tienen los objetos de
las ciencias sociales: son fungibles (intercambiables). Es decir, se puede dar por sentado que
los objetos del mismo tipo siempre reaccionan de la misma manera bajo las mismas
condiciones.
Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no se
pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se puede
pensar que los objetos son fungibles y que se pueda estudiar un individuo y extrapolar el
resultado al resto de la sociedad.
Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de análisis
estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p
propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de
propiedades.
El método de la asociación
Se podría llamar método de asociación este que sustituye al método experimental en las
ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.
Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los caminos no
estándar de investigación:
a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran
atención por problemas de significado y una actitud de escucha frente a la realidad en
vez de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto
c) preferencia por los problemas micro
d) orientación marcadamente ideográfica, descriptiva e inductiva
e) preferencia por la comprensión global de “provincias delimitadas de significado”
f) el hecho de que la causación, si es contemplada, es considerada un proceso que se
reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre
instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo
momento
g) gran importancia de las cualidades y capacidades del investigador y de sus
colaboradores
h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en lo
gratuito, anecdótico, etc.
Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.
Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido
para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada en
el sujeto por un lado, y otra centrada en la estructura social.
Al calor de estas controversias se definieron dos bandos: uno bajo la medición como mejor
medio para asegurar la cientificidad de las prácticas de investigación de las ciencias sociales, y
otro comprometido con el rechazo radical de cualquier intento de cuantificación de la realidad
social.
El debate intrapositivista
La perspectiva generalista encontró su versión metodológica más acabada con el positivismo.
Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía entre el objeto
de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad de tratar
metodológicamente al primero igual que a la segunda. Esto venía de la mano de un monismo
metodológico, o sea, que existe un único modelo válido para todas las ciencias. La propuesta
de tomar como modelo a la física suponía que la realidad social también estaba regida por
leyes universales, susceptibles de ser descubiertas a partir de ese mismo método científico.
La consagración del método hipotético-deductivo como única vía válida para la producción de
conocimiento científico revitalizó la idea del monismo metodológico. Para Popper, la ciencia se
ocupa de explicaciones conformadas por sistemas de hipótesis que han resistido las pruebas
de falsación, y estas pruebas solo pueden hacerse a través de un único y mismo método.
Estas ideas fueron tomadas como base epistemológica por parte de la sociología académica de
la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias sociales. Las
propuestas de Popper pasaron a formar parte de los manuales de metodología de la
investigación social, en donde se presentaba “el” método científico.
Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un proceso
histórico, no se trata de un producto lógico-racional que se produce en el vacío sino de un
conjunto de prácticas sociales que tienen lugar en el seno de una comunidad científica. Su
concepto clave es el paradigma. Kuhn distingue entre una etapa preparadigmática (no hay
acuerdos sobre el objeto de estudio y proliferan corrientes) y otra etapa paradigmática
(cuando un paradigma logra imponerse). Ocurrirán “crisis” (producto de anomalías) donde la
ciencia puede volver a una situación preparadigmática y eventualmente desembocar en una
revolución científica, donde se conformará un nuevo paradigma. Kuhn (y otros) han planteado
que las ciencias sociales nunca han pasado de la etapa preparadigmática.
Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se
conoce como programa de investigación. Estos programas de investigación incluyen un núcleo
duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por hipótesis
auxiliares).
Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos
fenómenos estaban gobernados por aspectos imponderables.
Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el cual
las hermenéuticas no negaban los principios y metodologías generalizadoras de corte positiva,
y el conocimiento de los fenómenos espirituales (humanos) que requerían una interpretación
profunda y que no podían ser reducidos a leyes universales. Apareció la distinción entre
aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen por objeto la
postulación de las leyes generales basadas en procesos causales uniformes, y aproximaciones
idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de los fenómenos
cambiantes que deben ser interpretados contextualmente.
Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los casos
son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso ilumina
aspectos de una teoría general). La inducción analítica pasará a ser considerada como
intrínsecamente etnográfica.
Con los trabajos de Park y Burgues la etnografía se reorienta hacia la propia sociedad. Su
mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las otredades
urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender toda
situación social desde la visión e interpretación del propio actor en interacción. El método
consiste en asumir el papel del actor y ver su mudno desde su punto de vista.
A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la investigación
no estándar. Se resignificaron algunas prácticas metodológicas de la antropología clásica y de
la sociología, dándoles un fundamento teórico-epistemológico de corte interpretativista que
aparentemente no habían tenido en sus orígenes. Aquí jugaron un papel importante los
aportes de la hermenéutica, el constructivismo, la fenomenología, la teoría crítica y otros.
Shutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de experiencia.
El focaliza sus estudios sobre los procesos a través de los cuales los sujetos producen
interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las ciencias sociales
están conformadas por constructos de segundo orden, que le dan sentido a los constructos de
primer orden de los actores en la vida cotidiana.
Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método para
generar teoría a partir de los datos empíricos. La relación entre teoría y datos se invierte: estos
pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría. Promueve una
metodología fundada en la inducción, en la que un muestreo estadístico es suplantado por el
muestreo teórico. Las unidades de observación se seleccionan según criterios formulados
desde la perspectiva del investigador, y el tamaño de la muestra se alcanza por saturación, es
decir, cuando ninguna observación adicional agrega nada relevante.
Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único, como
es la crítica epistemológica y metodológica feminista, donde se cuestiona el esencialismo, en la
medida en que este apunta a la legitimación de las relaciones de dominación entre los géneros
anclados en la biología. Esto dio lugar a nuevas categorías de análisis como el “género”.
La reactivación del interés por la investigación cualitativa a partir de la década del 60 también
implicó que gran parte del debate metodológico se trasladaría desde la oposición
cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4 ejes
en el debate de lo intracualitativo:
Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta de
rigor y precisión, asi como su incapacidad para generalizar los resultados. A partir de esto, se
instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y criterios
alternativos que fuesen más adecuados para juzgar sus procedimientos y sus productos. A
pesar de todo esto, no se ha establecido un consenso en los criterios de calidad en los estudios
cualitativos. Tal vez esto se deba a que en los 90 coexisten una multiplicidad de concepciones
que tienen en común la perspectiva del sujeto, lo cual responde a una realidad de un mundo
posmoderno, múltiple y fragmentado, donde no es posible ninguna generalización y donde
coexisten diversas perspectivas. Se da el contexto donde los límites entre los estilos
cualitativos y cuantitativos se han vuelto imprecisos.
En los últimos años se han propuesto diversas formas de articulación o integración entre las
diferentes perspectivas metodológicas, se conocen como triangulación metodológica.
1. Se define el problema
2. El problema se formula en los términos de un particular cuadro teórico
3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados
4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la
hipótesis
5. Se recolectan los datos
6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada
Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,
identificada como el método científico, se reifique y se vuelva un fin en si. SI el criterio es el
respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación
científica.
Son muchos los que se refieren al método como una elección. Es en la toma de decisiones
donde consiste la investigación científica. El método es, por lo tanto, mucho más complejo que
una simple secuencia unidimensional de pasos.
Método y metodología
El uso de método/métodos en el sentido de técnica/técnicas ha sido y es endémico en las
disciplinas más orientadas a la investigación empírica, que están mas frecuentemente en
contacto con instrumentos operativos. Los métodos son “más nobles y generales” que las
técnicas.
Se ha hablado de la indebida expansión semántica del término método, pero un abuso todavía
más grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el sentido de
“discurso sobre”, por lo tanto, metodología debería ser el discurso, estudio, reflexión sobre el
método. En la investigación social norteamericana se ha generado la costumbre de llamar
“methodology” a la técnica.
Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva. La
contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los dos
significados que el término metodología tiene en el lenguaje corriente de la investigación
social, significado que corresponde a los dos roles del metodólogo profesional. Cuando estudia
y enseña, un metodólogo debe tener una orientación descriptiva, es decir, debe estar abierto a
aprender de las experiencias de otros investigadores evaluándolas sin preconceptos, y
dispuesto a referir en modo sistemático y sintético aquello que ha aprendido. Cuanto utiliza
sus propias competencias, capacidad y experiencia al servicio de una investigación, suya o de
otros, el metodólogo no puede ser otra cosa que prescriptivo, en cuanto que debe elegir los
instrumentos a utilizar y como utilizarlos.
Las técnicas
También deriva del griego. Designa una capacidad artística, no aquella individual e irrepetible,
sino aquella más doméstica del artesano, transmisible de padre a hijo. En un segundo
significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad
para modificar algunos aspectos de ésta. En un tercer significado, es una ciencia la que se sirve
de técnicas para conocer mejor algún aspecto de su objeto
Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de diversas
ciencias. Son los procedimientos específicos empleados en una ciencia, o por un particular
género de investigación. El adiestramiento científico tiene que ver en gran medida con la
adquisición del dominio de las técnicas.
Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a
aplicar, en la capacidad de modificar técnicas existentes, adaptándolas a los problemas propios
y de imaginar técnicas nuevas. Una vez que un procedimiento nuevo, o una modificación de un
procedimiento, han sido ideados y son codificados y difundidos, estos se reifican y se
convierten en una técnica a disposición de la comunidad de investigadores: no ya en una
capacidad privada sino en un objeto público.
El hecho de que buena parte del público se comporta como si estuviera leyendo una
novela y no se interesan por los detalles de la investigación
Las casas editoriales también se comportan como los lectores del punto anterior.
Epistemología y gnoseología
En lo que respecta a la relación entre metodología (y método) y epistemología, existe un
consenso general sobre el hecho de que la metodología ocupa la porción central de un
continuum analítico crítico entre el análisis de los postulados epistemológicos que hacen
posible el conocimiento social y la elaboración de técnicas de investigación. Ocuparse de
metodología es encontrarse en una continua tensión dialéctica entre los polos de este
continuum, porque si la metodología abandona su laso epistemológico se reduce a una
tecnología o una práctica que ya no controla intelectualmente. Si abandona el lado técnico, se
transforma en una pura reflexión filosófica sobre las ciencias sociales, incapaz de incidir sobre
las actividades de investigación.
Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino también
la gnoseología, la cual reflexiona sobre los fines, doncidiones y límites del conocimiento. Esta
gnoseología es frecuentemente olvidada, las razones pueden ser dos: una lingüística y otra
sustancial. El término “gnoseology” no existe en inglés, así que no aparece en la literatura
anglosajona, aquí se usa “epistemology” para designar la filosofía del conocimiento
(gnoseología) y “philosophy of science” para lo que nosotros llamamos epistemología.
El segundo motivo puede derivar de que todos los intentos de dar un fundamento de certeza
al conocimiento científico ha fracaso frente a la constatación, inevitable en gnoseología, de
que no puede haber nexos rígidos entre la esfera de los referentes (la realidad), la esfera del
pensamiento y la esfera del lenguaje.
En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y con
distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en particular
al conjunto de decisiones y actividades orientadas a establecer relaciones causales entre
distintos aspectos de la realidad bajo estudio o, al menos, al control empírico (e impersonal)
de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto tipo de relación
entre determinados aspectos de ésta. La investigación es un proceso que involucra conjunto
de decisiones y prácticas por los cuales conocemos algunas situaciones de interés, cuya
definición y delimitación forma parte de las decisiones apenas aludidas. Debe quedar claro que
hablamos de investigaciones empíricas, o sea, aquellas que tienen algún tipo de relación
observacional con la situación de interés.
Que el proceso este atravesado por decisiones y operaciones que dependen en gran medida
del conocimiento tácito no significa que sea totalmente caótico, desordenado o imprevisible.
Por el contrario, este proceso puede ser diseñado y planificado y, entre otras cosas, esto será
un modo de hacerlo más controlable en la medida que exigirá un esfuerzo por explicitar de
modo anticipado las distintas decisiones involucradas en el mismo. Según el diccionario, un
diseño es una descripción o bosquejo, un proyecto o plan.
Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por
definición no es posible una actividad de investigación no diseñada; lo que pueden existir son
dos actividades de investigación con distintos grados o niveles de diseño. La segunda es que
desde el punto de vista del grado de detalle del diseño de la investigación no se puede pensar
en tipos cerrados sino en un continuum de diseños posibles.
Podemos identificar dos polos en una investigación: por un lado una que está absolutamente
planificada de antemano y otro totalmente opuesto donde no está nada planificado. Estos dos
polos son los llamados “tipos ideales”, pero en la práctica se dan las situaciones entre esos dos
polos, lo que se plantea la idea del “diseño flexible”, los cuales pueden ser más o menos
estructurados según el grado de detalle que adquiera la planificación previa. Se asume que
existe un conjunto de decisiones en cualquier tipo de investigación, este “mínimo” de diseño
implica decisiones que se pueden agrupar en cuatro grandes conjuntos:
Hay grandes temas que no son directamente investigables, entre otras cosas por su grado de
abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a convertirse en un
problema de investigación, o sea, dar lugar a preguntas específicas que se puedan abordar
empíricamente. Un problema se define y construye a partir de un tema más amplio. Esta
definición implica fundamentalmente un movimiento progresivo desde lo abstracto y general
del tema hacia lo concreto y especifico del problema. Pero el problema no surge
espontáneamente. El proceso de construcción, en cambio, puede ser extremadamente
complejo y no linean, e implica la puesta en juego tanto de saberes tácitos como de la
experiencia; no hay una técnica para la formulación de problemas de investigación. Este
proceso es posible a partir de un conjunto de prácticas que se conocen como indagaciones
preliminares. Con esta expresión se suele aludir a las lecturas más bien generales que permiten
ir conquistando familiaridad con un tema, pero también se podría pensar en otras
modalidades de indagación como por ejemplo entrevistas con referentes en la materia. Al
plantearlas, se empieza a dar forma al problema de investigación. Pero las indagaciones en
torno de este no cesan, sino que son cada vez más focalizadas, constituyendo lo que se define
como estado de la cuestión.
los problemas se plantean en una forma de interrogantes, los objetivos se expresan en cambio
por medio de proposiciones. Los objetivos son aquellos objetivos “cognitivos”, o sea, aquellos
orientados a acrecentar un conocimiento. Los objetivos se clasifican como generales y
específicos, siendo los últimos aquellos que se derivan lógicamente de los primeros y cuyo
cumplimiento concurre al logro de ellos.
Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los objetivos,
resultará necesario desentrañar el problema de investigación y analizar todas sus
consecuencias en términos de una posible respuesta empíricamente construida. Desde cierto
punto de vista, se puede afirmar que siempre existirá algún tipo de supuesto acerca de lo que
se investiga, son inherentes al planteo de la pregunta. Estos supuesto no siempre adquieren un
grado de articulación tal de poder plantarse como hipótesis. Autores afirman que las hipótesis
pueden ser el resultado de una investigación más que su disparador inicial. En tras ocasiones,
ellas no se hacen explicitas desde un principio e igualmente guían. Sin embargo, cuando el
objetivo del estudio implique la contratación de hipótesis, estas deberían estar precisamente
formuladas, especulando sobre la naturaleza y la forma de una relación. Hay autores que
sostienen que los modos más comunes en que aparecen las hipótesis en el trabajo científico
son cuatro:
1) Declaraciones condicionales
2) Funciones matemáticas
3) Declaraciones continuas
4) Declaraciones diferenciales
Habitualmente, las definiciones conceptuales son muy abstractas, las cuales se deberán
seleccionar a través de un proceso de operativización, o sea, debemos llevar al plano de lo
observable ese “algo” abstracto y luego elegir las herramientas adecuadas para observarlo.
Estas operaciones se basaran en un conjunto de decisiones que hemos denominado “de
recolección”.
Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo de
campo.
La ciencia se organiza en torno a objetos constituidos que nada tienen en común con aquellas
unidades delimitadas de la percepción ingenua. La epistemología empirista concibe las
relaciones entre ciencias vecinas, como psicología y sociología, como conflictos de límites,
porque se imagina la división científica del trabajo como división real de lo real. El posible ver
en el principio Durkheimiano según el cual “hay que considerar los hechos sociales como
cosas” el equivalente a lo que dijo Galileo que habla de la física moderna como sistema de
relaciones cuantificables.
Hay una importante distinción entre objeto “real” pre construido por la percepción y objeto
científico, como sistema de relaciones expresamente construido. Según lo ya dicho, si se
abandona la investigación científica, o solo se multiplican los criterios tomados de la
experiencia común, entonces el objeto permanece como “objeto común” y no adquiere la
dignidad de “objeto científico”.
Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y
construido sino en función de una problemática teórica que permita someter a un sistemático
examen todos los aspectos de la realidad puestos en relación por los problemas que le son
planteados.
Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando la frase
de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de sus
informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las
prenociones de los informantes. Obligarse a mantener aquellos elementos creados en realidad
por una indagación que se desconoce, es la manera más sencilla de negar que la comprobación
supone construcción.
Hipótesis o supuestos
Cualquier práctica científica responde a supuestos teóricos, siempre con miras a una prueba
experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como las
prenociones.
Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal empirista del
registro sin supuestos, aunque más no fuera por el hecho de que utiliza instrumentos y
técnicas de registro. La medida y los instrumentos de medición, y en general todas las
operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad de
procedimientos de construcción, conscientes o inconscientes, de los hechos yd e las relaciones
entre los hechos.
Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las propias
interrogantes no permitirá hacer un análisis verdaderamente neutral de las respuestas que
provoca.
El cuestionario más cerrado no garantiza la univocidad de las respuestas solo por el hecho de
que se someta todos los sujetos a preguntas formalmente idénticas. Suponer que una misma
pregunta tiene sentido para sujetos sociales distanciados por diferencias de cultura pero
unidos por pertenecer a una clase, es desconocer que las diferentes lenguas no difieren solo
por la extensión de su léxico o su grado de abstracción sino por la temática y problemática que
transmiten.
Contra el positivismo que pretende conducir a una formulación automática de hipótesis, una
hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado teórico
que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no podía
legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y a las
imágenes ingenuas o cultas de los hechos.
Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los
hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura
especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los
condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba
explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que
todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado
más que si se utiliza con conocimiento de causa. El tipo ideal como “guía para la construcción
de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y la acción es
comparada y medida”, una construcción concebida para confrontarse con lo real. El tipo ideal
permite medir la realidad porque se mide con ella y se determina al determinar la distancia
que lo separa de lo real.
Modelo y teoría
Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las
relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden
provocar nuevas analogías, nuevos principios de construcción de objeto. Es este el
procedimiento que le confiere su fecundidad, es decir, su poder de generalización.
Como adelantamos, para determinar los distintos diseños que se derivan de esta clasificación,
consideraremos en cada caso la referencia a:
• el número de variables consideradas, según la cual se distinguen diseños:
o univariados (una sola variable).
o bivariados (dos variables).
o multivariados (más de dos variables).
• el número de unidades de análisis consideradas, distinguiendo:
o estudios de caso.
o muestras pequeñas (o intensivas).
o muestras grandes (o extensivas).
o poblaciones (total de casos).
• el número de mediciones u observaciones que se hacen a lo largo del tiempo.
o transversales o transeccionales (una sola medición en el tiempo).
o longitudinales (varias mediciones en el tiempo).
Investigaciones descriptivas
Este tipo de investigaciones se propone describir el comportamiento de variables y/o
identificar tipos o pautas características resultantes de las combinaciones de un cierto número
de ellas. Se ocupan entonces de identificar las variables relevantes del objeto o asunto
investigado, y luego de averiguar cómo se comportan dichas variables.
El término correlación significa “variación conjunta” entre dos acontecimientos: cuando uno
cambia, el otro también lo hace de alguna manera sistemática, en la misma o inversa dirección
que el otro.
Hay unas pocas combinaciones que no pueden funcionar como investigaciones descriptivas:
sería el caso, por ejemplo, de investigaciones de caso único, univariado, transeccional. Eso
significa, la medición de una única variable, en una única unidad de análisis, en un único
momento.
Investigaciones explicativas
Se busca determinar no sólo el comportamiento de las variables sino además la dependencia o
vinculación que unas variables mantienen con otras. Interesa probar si el comportamiento de
una variable (o varias) puede funcionar como factor o causa explicativa del comportamiento
de otra (u otras) variable. Estas vinculaciones se pueden probar por medio de dos tipos de
estrategias: unas correlacionales y otras experimentales.
En general, nuestro conocimiento del mundo nos permite reconocer cuándo una correlación
puede implicar una relación causal entre las variables. Ese conocimiento nos permite también
identificar cuál es la variable que explica y cuál la variable explicada.
que tiene la vivienda que ocupan, el nivel de calidad de esa vivienda, el número de
hijos, etc.
La investigación experimental
Actualmente se entiende por investigación experimental aquella en la que se ponen a prueba
hipótesis que postulan relaciones de tipo causal entre dos o más variables; y en las que esa
puesta a prueba se realiza bajo ciertas condiciones “creadas” y “controladas” por el
investigador/a.
• Por una parte, la presencia de una variable independiente o explicativa (en la jerga
experimental también se las llama “factor”).
• Por otra parte, una variable (o factor) dependiente o explicado.
• En tercer término, lo que se llaman variables extrañas o contaminadoras.
No hay a priori criterios para juzgar si una variable puede o debe ser independiente o
dependiente: eso depende de cómo haya sido planteada la hipótesis. Bajo ciertas condiciones,
una variable puede suponerse como independiente y, bajo otras, como dependiente.
Un diseño experimental vincula tres tipos de variables: las variables independientes (VI), las
variables dependientes (VD) y las variables extrañas o contaminadoras (VE).
b) En lo que respecta a la variable dependiente, se pide que sea medible. Eso significa que
debe ser posible disponer de indicadores adecuados (sensibles, confiables y válidos) para
registrar los cambios ocurridos en esa variable –con el fin de evaluar luego si esos cambios se
deben a la variable independiente.
c) Finalmente, el gran desafío del diseño experimental se cifra en lo que hemos llamado el
“control de las variables extrañas o contaminadoras”. Como el objetivo de la investigación
experimental es averiguar qué efectos producen en la variable dependiente las variables
consideradas independientes, se debe garantizar que no existan otras variables que influyan
en esta relación. Una de las maneras de “controlar” la situación experimental es a través de la
equivalencia de los grupos que participan en la experiencia, al menos en todos aquellos
aspectos que se consideran contaminadores para la relación entre las variables que quieren
estudiarse.
Existen distintas maneras de formar los grupos para garantizar en alguna medida que en todos
ellos las unidades presentan semejantes características en lo que respecta a los intereses del
experimento:
Ahora bien, aunque se controlen varios factores, siempre cabe la posibilidad de que existan
otros que el investigador no está controlando y que efectivamente afectan la relación que está
pretendiendo medir para probar su hipótesis.
Por eso lo que se busca es implementar procedimientos que permitan o bien controlar esos
factores o bien intentar que se distribuyan con igual probabilidad en los diversos grupos.
Ahora bien, cuanto más se controlen los potenciales factores contaminadores o extraños, las
condiciones de la situación estudiada resultan cada vez más artificiosas. De modo que cuánto
más controladas y excepcionales resulten esas condiciones, más difícil resulta también
extrapolar los resultados de esas experiencias a los contextos habituales en que se presenta el
fenómeno investigado.
Generalmente la mejora o el aumento de la validez interna atenta contra la validez externa –es
decir, condiciones más restringidas o controladas implican menor capacidad de generalización
de los resultados.
Es importante que el grupo de estudio esté razonablemente balanceado por edad y sexo (a
menos que se trate de un tratamiento que nunca será utilizado en un sexo o grupo
etáreo particular). En lo que respecta al número, lo habitual es trabajar con varias muestras;
pero existen también diseños experimentales en los que se trabaja sobre la misma muestra y,
aún más, sobre el mismo y único caso o unidad de análisis.
En los diseños “intergrupos”, por lo menos uno de los grupos se considerará control y otro
experimental.
Otra dimensión que tomamos en cuenta para la clasificación de los diseños experimentales: el
número de mediciones en el tiempo.
En principio, en casi todos los casos de diseño experimental puro se tienen por lo menos dos
mediciones en el tiempo: una antes y otra después de la administración o el tratamiento
experimental.
por ejemplo, si hay efectos en la variable dependiente que puedan atribuirse a la medición
pre-tratamiento).
En los diseños de caso único o intragrupo, la medición también se hace antes y después del
tratamiento pero en ese caso esa medición se realiza sobre el mismo grupo o sujeto.
Sin embargo, existen situaciones en las que se pueden incluir más de una variable
independiente y más de una variable dependiente. Eso dependerá de la manera en que hayan
sido planteadas las hipótesis.
Pero además de estas cuestiones materiales, que ponen límite a la investigación experimental,
interesa advertir que la utilización de métodos experimentales no garantiza por sí mismo
riqueza ni profundidad de un trabajo investigativo. Pueden investigarse asuntos
absolutamente triviales o asuntos absolutamente relevantes aplicando estrategias
experimentales. Eso no depende de la técnica empleada, sino de la riqueza de las hipótesis
formuladas.
Por otro lado, la investigación experimental debe complementarse con otras estrategias que
contribuyan a descubrir nuevas ideas, sin las cuales no podrían llevarse adelante estudios
experimentales.
La investigación interpretativa
En este tipo de investigaciones no se apunta a la mera descripción de los hechos, ni a su
explicación causal, sino a la interpretación o comprensión de los fenómenos. Para analizarlas,
consideraremos dos grandes grupos.
Por una parte, lo que se ha dado en llamar en las ciencias sociales investigación cualitativa y,
por otra, la referencia a tradiciones más dispersas pero igualmente relevantes, que ubicaremos
bajo el rótulo de investigación de fenómenos culturales.
La investigación cualitativa
Se llama investigación cualitativa a un tipo de estrategia investigativa desarrollada en el área
de las ciencias sociales y humanas (como la antropología, la etnografía, la psicología social,
entre otras) que se nutre de orientaciones filosóficas interesadas en la comprensión de los
fenómenos históricos, humanos y subjetivos.
Este tipo de investigación se caracteriza por la manera en que produce sus datos y por los
propósitos que persigue con el tratamiento de los mismos.
El término “comprender” implica algo más que meramente conocer. Comprendemos algo
cuando estamos en condiciones de adoptar la perspectiva del otro.
En este tipo de investigaciones se trata no sólo de acumular datos sino de hacerlo procurando
integrar la perspectiva de los sujetos o los fenómenos involucrados en la situación estudiada.
Un rasgo de este tipo de investigaciones es que procura ser lo menos intrusiva y lo menos
distorsiva de las situaciones estudiadas. Eso quiere decir que los investigadores tratan de no
alterar las situaciones habituales de los fenómenos estudiados.
Por “contexto natural” se debe entender la situación en que se presentan habitualmente los
hechos a estudiar. Las características del “contexto” cambian según sean los asuntos
investigados.
Los datos que se producen en este tipo de investigaciones suelen ser sumamente ricos, en
cuanto a la profundidad y perspectivas consideradas. Como se busca captar todas las
dimensiones del asunto, se intenta abordar el mismo tema desde múltiples enfoques, no
desde un solo actor o una sola dimensión, ni en un solo momento.
Dado que los datos en profundidad terminan muy vinculados a un contexto específico, en la
mayoría de los casos los resultados no son exportables a otros contextos.
Un investigador involucrado
Algunos de los rasgos de este tipo de investigaciones serían los siguientes:
Su fin principal es interpretativo, de modo que se aborda el objeto a estudiar como un mensaje
o código a descifrar.
Dentro de este tipo de investigaciones encontramos asuntos tan variados como el análisis de
películas, cuentos, novelas, historia escrita, publicidad, relatos de pacientes en psicoterapia,
obras musicales o plásticas, discursos políticos, científicos, etc.
De igual modo, también en todos ellos se suele trabajar con pequeñas muestras o incluso con
casos únicos (como ocurre por ejemplo en las llamadas historia de vida).
Finalmente, dada la naturaleza de estas investigaciones, resulta por lo general más frecuente
que las observaciones o el relevamiento de la información se realicen a lo largo del tiempo, en
varios momentos, que permitan luego al investigador/a comprender el proceso, sus
transformaciones, etc. Eso no significa que queden descartadas de este grupo los diseños
transversales.
Sea para tratar distintas preguntas de la misma investigación (cada una de las cuales puede
requerir de distintos diseños); sea porque durante el desarrollo de la investigación se van
precisando las hipótesis y, por lo tanto, los modos de contratar o ampliar las hipótesis. Eso
ocurre, por ejemplo, cuando se trata de validar un indicador o un instrumento de medición de
algún tipo.
El término metodología designa el modo en que enfocamos los problemas y buscamos las
respuestas. En las ciencias sociales se aplica a la manera de realizar la investigación. Nuestros
supuestos, intereses y propósitos nos llevan a elegir una u otra metodología.
En las ciencias sociales han prevalecido dos perspectivas teóricas principales. La primera, el
positivismo, reconoce su origen en el campo de las ciencias sociales en los grandes teóricos del
siglo XIX y primeras décadas del XX, especialmente August Comte (1896) y Emile
Durkheim (1938, 1951). Los positivistas buscan los hechos o causas de los fenómenos sociales
con independencia de los estados subjetivos de los individuos.
Puesto que los positivistas y los fenomenólogos abordan diferentes tipos de problemas y
buscan diferentes clases de respuestas, sus investigaciones exigen distintas metodologías.
Adoptando el modelo de investigación de las ciencias naturales, el positivista busca las causas
mediante métodos tales como cuestionarios, inventarios y estudios demográficos, que
producen datos susceptibles de análisis estadístico. El fenomenólogo busca comprensión por
medio de métodos cualitativos tales como la observación participante, la entrevista en
profundidad y otros, que generan datos descriptivos. En contraste con lo que ocurre en el caso
de las ciencias de la naturaleza, el fenomenológo lucha por lo que Max Weber (1968)
denomina VERSTEHEN, esto es, comprensión en un nivel personal de los motivos y creencias
que están detrás de las acciones de la gente…
El estudio de Frederick LePlay de 1855 sobre familias y comunidades europeas representa una
de las primeras piezas auténticas de observación participan. En antropología, la investigación
de campo hizo valer sus méritos hacia principios del siglo. Boas (1911) y Malinowski (1932)
establecieron el trabajo de campo como un esfuerzo antropológico legítimo.
Por importantes que fueran estos primeros estudios, el interés en la metodología cualitativa
declinó hacia el final de la década de 1940 y principios de la de 1950, con la preeminencia
creciente de grandes teorías (por ejemplo, Parsons, 1951) y de los métodos cuantitativos.
Desde la década de 1960 resurgió el empleo de los métodos cualitativos. Se han publicado
tantos estudios vigorosos y profundos basados en estos métodos que ha sido imposible
restarles importancia.
Metodología Cualitativa
Refiere en su más amplio sentido a la investigación que produce datos descriptivos: las propias
palabras de las personas, habladas o escritas, y la conducta observable… Es un modo de
encarar el mundo empírico:
Teoría y metodología
La perspectiva fenomenológica es esencial para nuestra concepción de la metodología
cualitativa. De la perspectiva teórica depende lo que estudia la metodología cualitativa, el
modo en que lo estudia, y en que se interpreta lo estudiado.
Para el fenomenólogo, la conducta humana, lo que la gente dice y hace, es producto del modo
en que define su mundo. La tarea del fenomenólogo y de nosotros, estudiosos de la
metodología cualitativa, es aprehender este proceso de interpretación. La perspectiva
fenomenológica está ligada a una amplia gama de marcos teóricos y escuelas de pensamiento
en las ciencias sociales. Dos enfoques teóricos principal, el interaccionismo simbólico y la
etnometodología, se han convertido en fuerzas dominantes en las ciencias sociales y
pertenecen a la tradición fenomenológica.
Desde una perspectiva interaccionista simbólica, todas las organizaciones, culturas y grupos
están constituidos por actores envueltos en un proceso constante de interpretación del mundo
que los rodea. Aunque estas personas pueden actuar dentro del marco de una organización,
cultura o grupo, son sus interpretaciones y definiciones de la situación lo que determina la
acción, y no normas, valores, roles o metas.
El tipo de objeto acerca del cual se buscan informaciones en una investigación se llama
“unidad de análisis”. En una investigación se debe definir no solo la unidad, sino también el
ámbito espacio-temporal que interese.
Población y muestra
Una vez determinada la unidad de análisis y el ámbito espacio-temporal, el conjunto de los
ejemplares de esa unidad que se encuentran en dicho ámbito es llamado población. Cada
ejemplar de esta población puede devenir en un caso. Esto es una fila de la matriz.
Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una
población tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando cada
miembro de la población tiene la misma probabilidad conocida y no nula de ser extraído. Pero
esta distinción ofrende una cobertura científica a procedimientos que tienen poco que ver con
la ciencia y mucho con los presupuestos de quien hace el sondeo.
Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar su
obvia consecuencia (subrepresentación de todas las áreas periféricas) con otro procedimiento
discutible: la ponderación.
Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o se
niegan a ser entrevistados, esto también afecta el concepto de extracción aleatoria, haciendo
que una muestra perfectamente aleatoria se vuelva casi siempre no aleatoria, por ejemplo,
seguro atenderán más el teléfono las amas de casa, los desempleados y los jóvenes que otro
tipo de sujetos.
¿Representativo de qué?
Para juzgar si una muestra es representativa debemos mirar el resultado, independientemente
del procedimiento con el que haya sido extraída.
Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma
probabilidad de entrar en la muestra para todos los miembros de la población), para juzgar si
es representativa debemos recurrir a consideraciones difusas y subjetivas. La difusión y
subjetividad caracterizan todo el campo semántico de la representatividad.
Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas
dos distribuciones) no sean introducidos por el investigador, sino producidos al
azar.
Una garantía razonable de que estos sesgos sean de magnitud limitada.
La definición operativa
En las columnas de una matriz de datos se encuentran las variables. Una variable es un vector
de signos que representan los estados de los casos en las propiedades que interesan.
Habitualmente, pero no necesariamente, estos signos son números.
Solo se puede hablar de una matriz de datos si todos los números (y más generalmente, los
signos) que se ven son interpretativos, es decir, son datos.
Para poner información en celdas necesitamos una convención que relacione “algo” con un
número. Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de estudio,
un plan de codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria, 3
licenciada, etc.
Los investigadores saben que los entrevistados tienden a declarar como propias las opiniones
que creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido como
“deseabilidad social”, y es tan difundido que hace poco fiables los resultados de encuestas
sobre opiniones realizadas con preguntas sencillas y directas, ya que es fácil para el
entrevistado imaginar cual sea la respuesta convencional, y por lo tanto, socialmente deseable.
Además pueden dar involuntariamente informaciones que generan datos no fidedignos. Por
ejemplo que no entiendan bien la pregunta, mala memoria, etc.
El más simple es una inspección de las distribuciones de frecuencia de cada variable, o sea,
cuantos datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto nos
permite tomar contacto con los datos que hemos recogido, además, nos permite descubrir si
algunos datos tienen códigos que no estaban previstos en la codificación.
Todas las otras formas de control se aplican confrontando los datos con informaciones que se
encuentran fuera de la matriz.
a) Para medir la fiabilidad de un test se aplica en una cierto día a una muestra de sujetos
b) Se registran las respuestas a las preguntas y se le atribuye un puntaje a cada respuesta
c) A cada sujeto se le atribuye la suma o el promedio de sus puntajes, y esa cifra, siendo
el resultado global de cada individuo en el test, se pone en un vector-columna
d) Después de algún tiempo se repite la fase a con los mismos sujetos, mismas preguntas.
e) Se repite la atribución de puntaje y se ponen las cifras en otro vector-columna
f) Se calcula el coeficiente de correlación entre ambos vectores
g) Esta cifra es llamada “coeficiente de correlación test-retest”. Se considera una medida
de fiabilidad
Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería determinante
si ambos resultados cambiasen.
Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas o
pruebas, formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos
vectores deseados se producían sumando ambos puntajes. SI la correlación resultaba alta, eso
confirmaba el supuesto de equivalencia de los dos tests y simultáneamente la fiabilidad de uno
con el otro.
Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores deseados
simplemente sumando por separado los puntajes conseguidos por un sujeto en las preguntas
que tienen un numero par en la secuencia del test y en los que tienen un número impar. El
coeficiente de correlación así producido fue bautizado “subdivisión a la mitad”
Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar con
las respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por quitarse un
peso de encima. Esto se conoce como “respuesta self”.
Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está vinculada
a los test en sus laboratorios, es decir, baterías de preguntas o pruebas de formato igual. No es
aplicable a ninguna de las otras herramientas que se usan en un sondeo. Además, asignar un
coeficiente de fiabilidad de un test como si fuera un atributo permanente lleva a una falla de
conceptos y además roza un problema de generalizabilidad.
No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones. Esto
parece obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un grupo
son transferidos a todos los otros grupos sin cuestionamiento.
La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le aplica el
test para calcular su coeficiente de fiabilidad:
a) Cada sujeto tiene una manera particular de reaccionar ante las preguntas
b) Cada pregunta o prueba tiene su particular nivel de inteligencia, agrado y
aceptabilidad
Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se siguen
volviendo más técnicos con los años y más alejados de la realidad.
Las discretas se dividen en tres clases según el tipo de relación que hay entre sus estados.
Categoriales: si los estados son solo diferentes, pero no hay ningún tipo de relación
cuantitativa entre ellos.
Ordinales: si los estados tienen relaciones ordinales (de mayor y menor) se pueden
ordenar a lo largo de una escala.
Cardinales: si tienen relaciones cardinales, en el sentido de que se puede
legítimamente establecer un cociente entre ellos.
Mensurables: si sus estados se pueden registrar sin intervención activa del individuo
cuyo estado se está registrando
Continuas no mensurables: si la intervención debe ser activa
Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los principios
de una operación intelectual (la clasificación). Esta operación se puede llevar a cabo en
abstracto, considerando las diversas formas que puede tomar un objeto o evento (por
ejemplo, los múltiples estados que puede concebir una propiedad).
El criterio que se sigue para dividir la intensión de un concepto o para agrupar ejemplares
tiene el nombre de “fundamentum divisionis”. Un ejemplo es dividir un grupo por el color del
pelo (morocho, rubio, etc).
Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la mutua
exclusividad vale tanto para tipologías como para clasificaciones.
Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que han
sido formuladas con un lenguaje lejano al del entrevistado. Una cuota demasiado alta de “no
contesta” puede significar que algunas preguntas tocan temas delicados o privados. Una cuota
muy alta de “otro” significa que la clasificación puede haber sido realizada de manera
superficial.
Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es decir,
sometiendo preliminarmente el cuestionario a algunos miembros de la población a examinar.
Reflexionando sobre estos resultados, se pueden obtener mejoras. Estas pruebas piloto a
veces se ejecutan solo como “ritual” y antes del sondeo, donde no hay tiempo para analizar
nada.
Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más
importante en la transformación de la propiedad categorial en una variable categorial. Aquí
hay que evitar el problema de algunos traten estos aparentes números de las categorías en
sentido estricto y los analicen.
Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este siendo
analizado con técnicas estadísticas, una categoría cambia de nombre y se llama “modalidad”.
Con la expresión “frecuencia de una modalidad” se entiende el número de datos a los cuales
se atribuyó aquella modalidad. La modalidad con la frecuencia más alta se llama “moda” (o
modo) y esto en todos los tipos de variables.
Una vez realizado este paso preliminar, una variable categorial está casi lista para ser puesta
en relación con otras variables categoriales u ordinales mediante una tabla bivariable, o con
variables cardinales mediante el análisis de la varianza. Se dijo “casi lista” porque si se quiere
investigar de manera eficiente las relaciones de las variables categoriales con otras variables,
hay que someter casi todas a una especie de “maquillaje” que constituye una verdadera fase
intermedia entre recolección y análisis. Esta es una fase descuidada generalmente.
Cuando se quieren analizar las relaciones de una variable categorial con otra variable, cabe
decir que el mismo nivel de detalle que es positivo en la recolección y análisis univariado
(detalle y sensibilidad), se convierte en negativo. El grado de negatividad depende de la otra
variable con la cual establecemos relación: si es un cardinal, el problema no es grave, si es un
ordinal, este resulta mayor, pero aún no tan grave; si es un categorial, un alto nivel de detalles
(muchas categorías) puede producir dificultades importantes. Esto es porque la herramienta
con la que se analizan las relaciones entre dos variables, la tabla bivariable, el número de las
celdas equivale al producto de las modalidades de las dos variables que forman la tabla. Con
dos variables de diez modalidades, el número es cien, etc. Esto crea dos problemas, uno
numérico y otro semántico.
Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más
frecuente que otra, siempre estando algunas celdas vacías y otras no. De celdas vacías o casi
vacías no se pueden sacar conclusiones, o sea, una matriz vacía o semi vacía no sirve para
mucho análisis.
Para hablar del problema numérico, es necesario hablar del concepto de autonomía
semántica. Una categoría tiene plena autonomía semántica si puede ser interpretada sin hacer
referencia al significado de la propiedad o de las otras categorías. Por su naturaleza, las
categorías de las variables categoriales tienen plena autonomía semántica. Lo que significa que
cada combinación de las categorías de dos variables categoriales tiene su sentido y necesita
atención y concentración para enfocar su pleno significado.
El investigador experto prefiere enfocar su atención en pocas tablas elegidas con cuidado y
hacerlas manejables, reduciendo al mínimo las celdas vacías o casi vacías, de manera de poder
aprehender todo lo que indica la tabla en un tiempo razonable. Para lograr este objetivo habrá
que reducir el número de las categorías en ambas variables.
Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos criterios: uno
medular es la proximidad semántica entre las categorías que se desea unir; otro criterio es el
equilibrio entre las frecuencias en las distintas modalidades. El metodólogo experto trata de
evitar la presencia de modalidades, y por lo tanto celdas, con frecuencia demasiado altas o
bajas, ya que ambas perjudican la interpretabilidad de una tabla.
Las consecuencias de graves desequilibrios son conocidas: categorías con baja frecuencia
producen inevitablemente celdas vacías o casi vacías, dando conclusiones no confiables. A
veces para dar una distribución más equilibrada no basta reagrupar categorías
semánticamente parecidas y con escasa frecuencia, se debería también disgregar una
categoría que resultó tener un porcentaje excesivo.
En este caso, los estados están ordenados en la realidad, o se puede imaginar un criterio
intersubjetivo para ordenarlos. La serie de códigos debe tener una relación monotónica directa
con el orden de los estados en la realidad: al crecer la posición ordinal del estado, hay que
acrecentar también el código numérico asignado a la modalidad correspondiente.
Una importante consecuencia directa de la reducción de autonomía semántica por parte de las
categorías ordenadas es que en las tablas que presentan la distribución de los porcentajes
relativos a cada modalidad singular deben ser reemplazados, o acompañados, por porcentajes
acumulados, lo cual se calcula teniendo en cuenta no solo la frecuencia de aquella modalidad
sino también las frecuencias de las modalidades que la preceden en el orden. A veces puede
ser útil presentar porcentajes retro acumulados, que suman la frecuencia de aquella
modalidad con los de las modalidades que siguen en el orden.
Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite
detectar inmediatamente la categoría mediana de una distribución. En una secuencia de cifras,
la mediana es la cifra que divide la serie en dos partes iguales.
Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y variables
cardinales métricas (las que derivan de una medición) pierda toda su importancia, y se puede
hablar de variables cardinales sin más.
Como se decía acerca de las variables categoriales, el criterio que rige la recolección de
informaciones no es para nada el mismo que rige la presentación de los datos y su análisis. En
el caso de las variables categoriales, la razón principal para agrupar categorías se presenta ne
la fase de análisis, y radica en la necesidad de reducir el número de celdas en las tablas cuando
se analicen sus relaciones con otras categorías y ordinales, pero la posibilidad de
reagrupamiento tiene un límite en el hecho de que cada categoría tiene plena autonomía
semántica, y por lo tanto solo se pueden agrupar categorías semánticamente parecidas.
En el caso de las variables cardinales, la razón para agrupar categorías cuando se presentan los
datos es otra y concierne únicamente a ésta fase.
Al agruparse categorías no hay otro problema que plantearse más que el número: la
proximidad semántica no es un problema porque las categorías de una variable cardinal tienen
una autonomía semántica muy reducida, que va poco más allá del aspecto meramente
numérico. Por otro lado, esta escasa autonomía semántica no se puede descuidar.
En término metodológicos, esto significa que en muchas propiedades discretas cardinales, las
categorías más cercanas al cero tienen una mayor autonomía semántica que otras. Como
consecuencia, las clases iniciales de las variables cardinales tienen habitualmente una amplitud
reducida.
Ya que las modalidades de las variables cardinales son números en sentido estricto, se las
puede someter a todas las operaciones matemáticas.
De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que
habitualmente se representa mediante la dispersión de sus datos respecto a este promedio.
Dado que los códigos de una variable cardinal son números, no hay dificultad para calcular un
valor que sintetice la dispersión de sus datos en una muestra o en una población, donde, de
forma sencilla, podemos calcular una desviación de X respecto a un promedio. Esa desviación
podrá ser positiva o negativa.
A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza, varianza,
desviación típica y coeficiente de variación, los cuales son valores globales, en el sentido que
se refieren a distribuciones enteras y no a casos singulares. El procedimiento que permite
saberlo se llama estandarización. La estandarización sirve también para construir índices
aditivos que sumen variables cardinales con una extensión de escala diferente.
Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la unidad
de medida y el estado en la propiedad que se está midiendo. Cuando se miden propiedades de
objetos inanimados o de ser humanos a las que se tiene acceso desde el exterior, este cotejo
lo hace el que mide. Pero cuando este acceso directo no se puede lograr, el investigador puede
recorrer tres caminos:
Descuidando todos estos puntos, muchos investigadores usan libremente los términos medir,
medida, medición, etc., para cualquier procedimiento de registro de estados. Este abuso no
tiene otro propósito que le anhelo de legitimación científica.
Algo que no se puede considerar una condición de medición, pero que nunca falta, es el
criterio para redondear.
La primera observación es que reintroduce por la ventana la misma cardinalidad que declara
haber echado por la puerta; lo hace desde el titulo (valoraciones sumadas). Las valoraciones
que se suman son los números naturales que se atribuyen a los 5 niveles de desacuerdo (o
acuerdo) y que se suman para asignarle a cada sujeto un puntaje total en la escala, que
expresa su supuesto estado en la propiedad que se intenta medir.
Un segundo problema que presenta es el hecho de que una afirmación puede ser desaprobada
por motivos opuestos. Lo que conlleva a que se asigne los mismos puntajes a opiniones
ubicadas en posiciones muy diferentes a lo largo del continuum. Esto se conoce como
“curvilinearidad”, porque asignar la misma puntuación a respuestas que tienen motivos
opuestos equivale a doblar el continuum transformándolo en una herradura.
Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió que un
entrevistado no reacciona al sentido de la oración entera, sino a un solo término, más
precisamente, al objeto/sujeto designado por este término. Esto fue bautizado como “reacción
al objeto”.
El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez, por otro
reduce la fidelidad de los datos producidos. Esto es porque una vez aprendido el fácil esquema
según el cual deben contestar, tienden a considerar todas las frases restantes como una única
afirmación, que aprueban sin más, por eso podríamos encontrar columnas enteras con la
misma respuesta marcada. Esto se conoce como los “response set” (conjunto de respuestas).
Se pueden identificar cuatro motivos
El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la misma
batería afirmaciones de orientación opuestas, de forma que el entrevistado no pueda
declararse razonablemente de acuerdo con todas. Igual, para que esto funcione, los
entrevistadores deben ser entrenados para actuar apenas el fenómeno del response set se
manifieste, llamando la atención del entrevistado avisándole que dos cosas que ha contestado
se contradicen.
Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar frases
individuales, pedirles elegir entre dos frases de orientación opuestas y planteadas juntas, una
frente a la otra. De esta forma es forzado a abandonar su condición pasiva y reflexionar sobre
el significado de ambas frases. Esto se llama elección forzada.
Funciona así: se presenta una serie de frases a una muestra de sujetos, solo preguntándoles si
aprueban o desaprueban cada una de ellas. Luego se organiza una forma de matriz (la cual
llamaba escalograma): en las columnas se ponen las opiniones, ordenadas de la más fácil a la
más difícil (la que tuvo más aprobaciones a más desaprobaciones). En las filas se ponen los
sujetos, ordenados de mayor a menor según la cantidad de frases aprobadas.
La primera sugerencia revela la actitud del autor: si el mundo no se adapta a mis supuestos,
hay que cambiar el mundo y no los supuestos. La segunda es ética y científicamente legitima:
el investigador tiene derecho y deber de mejorar sus instrumentos, solo que en el caso
específico tiene graves consecuencias técnicas.
Como subrayan Guttman, su escala es una técnica meramente ordinal: lo que conlleva a que
los únicos valores característicos que se pueden aplicar a variables constituidas con ella son la
moda y la mediana, y además para analizar las relaciones de estas variables con otras solo se
pueden aplicar coeficientes ordinales.
Lo mismo se puede decir para las variables construidas con la escala de Likert. Por otro lado,
hay que enfrentarse al hecho de que muchos analistas usan sin cuestionamiento técnicas
cardinales en estas variables, porque con esas técnicas pueden fácilmente efectuar un análisis
multivariable. Pero esta práctica va a producir resultados poco confiables porque las
posiciones a lo largo del continuum no son equidistantes, y porque las frecuencias están
habitualmente mal distribuidas.
Hay que examinar previamente las distribuciones de todas las variables a las que las van a
aplicar, y solo aplicarlas a las variables que tengan una distribución bastante equilibrada.
Algo más evidente es la diferencia gnoseológica, como pasa con todas las propiedades
psíquicas, el investigador no tiene acceso directo a los estados individuales. El hecho de que
sea el mismo sujeto que va a valorar su estado en cada propiedad que el investigador le
presente, y que exprese esa valoración con un instrumento al cual no está acostumbrado,
conlleva varias consecuencias gnoseológicas bajo la forma de causas de infidelidad:
Solo al último tipo de distorsión se puede aplicar un remedio, pero en situaciones particulares.
Para las otras no hay nada que hacer.
Presentamos tres escalas de esta familia. La más antigua es la “diferencial semántica”, donde
se presentan escalas, donde cada escala está formada por varias casillas y en ambos extremos
dos adjetivos opuestos (caliente: _: _:_:_ :_:_ :_: frio) donde se pide valorar.
Otra similar a la anterior, es presentarle al sujeto una columna con diez u once casillas, donde
solo la más alta o la más baja son interpretadas. Como el sujeto era quien “anclaba” la escala al
establecer la posición de su estado entre dos extremos, fue llamada “autoanclante”.
Un ejemplo de variable derivada es: porcentaje de votos de un partido sobre el total de votos
válidos, etc.
El hecho de que no se pueda dar una definición operativa directa no conlleva una renuncia a
recoger información sobre esa propiedad, para hacerlo, hay que buscar una o más
propiedades que
Solo se pueden ser elegidos como indicadores conceptos que se refieren a propiedades, que
sugieran una definición operativa directa y cumplan con el requisito (b) señalado antes. Estas
son condiciones necesarias pero no suficientes: la condición esencial es que el investigador
perciba una estricta relación semántica entre el indicador y el concepto indicado.
Cada investigador puede considerar central un aspecto diferente, lo cual podríamos llamar
“aspecto indicativo”. Pueden haber otros aspectos que ignora o que considera no importantes,
los cuales podríamos llamar aspectos extraños. Todos estos puntos ayudan a influir en, por
ejemplo, la manera en que una pregunta será entendida por los entrevistados. La minimización
de los aspectos extraños tiene que ser la primera consideración para elegir indicadores, y dado
no que no es posible encontrar un indicador que este alejado a esto, un investigador deberá
tenerlos muy en cuenta a la hora de interpretar los datos.
A esa pluralidad “desde abajo” (en el sentido de que un concepto puede ser elegido como
indicador de otros varios conceptos) le corresponde una pluralidad “desde arriba” en el
sentido de que para cada concepto que interesa, pero que no sugiere directamente una
definición operativa, cabe elegir más de un indicador.
Una combinación particular de pluralidades desde arriba y desde abajo se encuentra a menudo
en el “análisis secundario”, esto es el hecho de que muchos investigadores, para profundizar el
problema, en lugar de recolectar directamente datos, analizan aquellos ya registrados por
otros investigadores y que encuentran en archivos.
Claramente, cada vez que analizamos una investigación que no es nuestra, estamos limitados a
las propiedades que interesaron al autor original, por lo tanto, tal vez alguna cosa que interese
no está en la matriz.
Este juicio se debería dar teniendo en cuenta los conocimientos del problema y de la población
estudiada, los resultados de investigaciones previas, la literatura del tema, etc. Una vez
registrados los datos, el juicio debe tener en cuenta la fuerza y la forma de la relación de
aquella variable con otras.
Todas las otras formas de control de validez se basan en coeficientes de asociación entre el
vector que brinda los datos del indicador en cuestión y otros vectores de la matriz. La fiabilidad
de los datos también se controla mediante correlación de dos o más vectores. Esta analogía ha
conllevado una lamentable confusión entre el concepto de fiabilidad y el concepto de validez.
Las operaciones matemáticas necesarias para construir índices son mucho más sencillas que
las que se usan en el propio análisis estadístico. A veces son simples sumas de puntajes y por
eso este tipo de índices de denominan “aditivos”. Este nivel de simplicidad solo se puede
alcanzar si se satisfacen cuatro condiciones: una factual, una numérica y dos semánticas.
La factual es que no falten datos en uno o más indicadores: en estas circunstancias el putaje
final de casa caso en el índice debe ser el promedio y no la suma de los puntajes válidos.
La condición numérica es que todas las variables que se suman tengan la misma extensión de
escala, o al menos una extensión muy parecida.
Con respecto a la condición semántica: una tiene que ver con la inversión de la tabla de puntos
(más en uno significa menos en el otro). La segunda es más compleja: hasta ahora se
presentaron operaciones (estandarización, normalización, etc.) que tenían el fin de hacer
efectivamente equivalentes los indicadores antes de combinarlos en un índice, en el supuesto
de que el investigador los considerara a todos igualmente válidos. Pero puede pasar que un
investigador considere algunos más validos que otros. Si tiene bueno motivos para ello, tiene
que incorporar esta convicción en la formación del índice, sin temor a no ser objetivo.
Para ponderar la contribución de cada indicador a la suma que va a proporcionar cada caso su
puntaje en el índice, el investigador tiene dos caminos. Puede guiarse por sus valoraciones
semánticas, multiplicando los puntajes en los indicadores que considera valiosos por un
coeficiente mayor a 1, y los indicadores que considera menos valiosos por un coeficiente
menor a 1. O puede aprovechar las posibilidades que ofrece la matriz de los datos, sometiendo
la canasta de las variables que operativizan posibles indicadores del concepto que interesa a
un análisis de componentes principales.
Ahora basta decir que el análisis de componentes principales tiene tres funciones, a las que
corresponden tres fases en el procedimiento
1. Seleccionar en la canasta inicial de posibles indicadores los que resultan tener una
estricta relación empírica con los otros, y por lo tanto se puede suponer que tengan
una apreciable relación semántica con el concepto que interesa
2. Estimar la fuerza de esta relación semántica (es decir la validez) entre el concepto y
cada uno de los indicadores seleccionados.
3. Proporcionar un coeficiente para ponderar los puntajes de cada indicador teniendo en
cuenta las posibles superposiciones semánticas, es decir, el hecho de que dos o más
indicadores pueden representar aspectos muy cercanos de la intensión del concepto.
En este caso, el índice final no es otra cosa que la suma de los puntajes de cada individuo en
los indicadores seleccionados en la fase 1; antes de sumarlos, los puntajes son multiplicados
por el correspondiente coeficiente calculado en la fase 3.
La idea de ruptura destaca el quiebre entre ambos mundos, y se inscribe en el marco de una
concepción que le asigna a la ciencia un lugar privilegiado, inmune a las contaminaciones del
conocimiento ordinario que caracteriza a la vida cotidiana.
En tiempos más recientes se ha tendido a favorecer la idea de continuidad entre ciencia y vida
cotidiana, y en ese sentido se ha destacado que las competencias observacionales
desarrolladas en la vida social, junto con esfuerzo reflexivo y crítico, constituye un fundamento
de notable no solo para aprender y comprender el significado de la observación científica, sino
también para llevarla a cabo de manera apropiada. La observación común y generalizada
puede transformarse en una poderosa herramienta de investigación social y técnica científica.
que amplían la capacidad de los sentidos, y en un modo más general, aquellos que hacen
posible acceder a través de ellos a la observación de un espacio/objeto dado.
Gold profundizó en la caracterización de los tipos ideales de roles de trabajo de campo que el
cientista social puede adoptar a partir de la observación y la participación. Su tipología se basa
en dos criterios: el grado de participación y el grado de revelación de la actividad de
observación. De aquí surgen los 4 tipos teóricos: participante completo, participante como
observador, observador como participante y observador completo.
El observador como participante es el típico rol de quien limita el trabajo de campo a una
entrevista. La actividad de observación es más bien formal, ya que no se dan las condiciones
para una observación y participación informales a lo largo del tiempo.
El observador completo es aquel que no interactúa socialmente con los sujetos investigados.
Se limita a observar intentando que su actividad pase inadvertida.
Se plantea que hay dinamismo y conexión entre estos 4 y no caminan por separado, inclusive a
lo largo de un mismo estudio se pueden adoptar todos. Inclusive, el rol no se da solo por el
investigador, ya que este es también es observado.
La observación participante
Consiste en ver el fenómeno estudiado en su ambiente natural, sin manipularlo y presenciado
de forma directa. Conlleva el involucramiento del investigador en una variedad de actividades
y en un período prolongado de tiempo.
Se distingue entre dos modos: pasivo y activo. Los modos pasivos se observación implica el
mirar y el escuchar, mientras que el activo es el conversar. Los modos pasivos de participación
son el estar y el hacer; el modo activo es el compartir. A partir de estas observaciones, se
distingue entre la observación participante en un sentido débil (modo pasivo) y fuerte (modo
activo). Autores están más de acuerdo con un modo u otro.
La observación participante también puede adquirir diferentes setnidos según cual sea la
relación de membresía del investigador con respecto al grupo que estudia; el observador
puede ser miembro (nativo o no nativo), puede hacerse pasar por un miembro, o desarrollar
un rol de observador paticipante en el grupo en el sentido del “participante como observador”.
Se han discutido los límites de la interpretación de una cultura extraña sin que medien
procesos de resocialización en el juego del lenguaje que esa cultura implica. Se han puesto en
cuestión la posibilidad de “traducción” de una cultura a los términos de otra partir de una
racionalidad que le es ajena. La supuesta “objetividad” puede convertirse en un obstáculo para
acceder al sentido de ciertas prácticas sociales y culturales.
Igualmente, la visión canónica ha tendido a favorecer las ventajas del observador profesional
no nativo.
Las diferencias entre el rol técnico del observador participante y el papel del profano de
participación típico de un miembro nativo del grupo son el contraste de propósitos, los modos
de atención, los ángulos de observación, la experiencia, introspección y registro.
Cuando el observador se hace pasar por miembro (observación encubierta), si bien se tiende a
desaconsejar esta forma de intervención por razones éticas, hay casos en que podría ser la
única forma de conocer un fenómeno sin que la presencia incida en la situación.
Entre sus límites señala que hay importantes cuestiones de interés para las ciencias sociales
que no son pasibles de observación directa, o al menos observación participante. También las
limitaciones para fenómenos que tienen su raíz psicológica profunda, y que requieren métodos
indirectos. También se destaca como negativo el tiempo que lleva la observación participante.
Pero las ventajas o límites deben entenderse como en relación a otros métodos
observacionales y el objeto de interés de una investigación.
Las críticas más frecuentes remiten a la fiabilidad y validez. Autores afirman que los problemas
de fiabilidad y validez tienden a solucionarse si se contrastan las perspectivas de varios
investigadores.
La forma más común de distinción del registro informacional escrito involucra las notas
observacionales, teóricas y metodológicas, también llamadas sustantivas, analíticas y
metodológicas. Las primeras son el registro descriptivo de lo observado. En ellas es importante
rescatar el lenguaje nativo, lo espontáneo y limitando las interpretaciones. Como todo lleva un
ejercicio analítico, se realizan notas teóricas o analíticas Estos son intentos preliminares del
observador para dar sentido a lo que observa. Las notas metodológicas son ap untes
descriptivos acerca del investigador y el proceso de investigación, por ejemplo, las decisiones
que toma en el campo.
Otro autor distingue entre notas condensadas, que se realizan mientras se lleva a cabo la
observación, y notas expandidas, que se realizan fuera del campo y que son más detalladas.
Introducción
El sondeo o encuesta es un método científico de recolección de datos, a través de la utilización
de cuestionarios estandarizados, administrados por entrevistadores especialmente entrenados
o distribuidos para su autoadministración a una muestra.
Se trata de una técnica que permite obtener datos sobre actitudes, creencias, opiniones, etc.
Se caracteriza por su adecuación para relevar muchoas propiedades referidas a muchos
individuos.
Supuestos
Se señalan tres supuestos inverificables de las cuentas de opinión pública:
A fin de minimizar los riesgos de falta de veracidad en las respuestas, las encuestas tienden a
ser anónimas y garantizando la confidencialidad de los datos.
Limitaciones
Algunas remiten a decisiones y estaregias investigativas previas a su aplicación: a) la validez de
los indicadores y la confiabilidad de los instrumentos de registro y b) las limitaciones de las
muestras utilizadas. La primera se intenta controlar, por un lado, testeando los indicadores
antes de aceptarlos como válidos, y por otro, sometiendo el cuestionario al control de una
prueba piloto, mientras que la validez de la muestra depende de las técnicas de selección que
se utilicen.
Otras limitaciones operan durante el trabajo de campo, donde se generan la mayor parte de
los errores que no se vinculan al diseño de los instrumentos sino a su aplicación. La mayoría se
pueden minimizar a través de un buen entrenamiento de los encuestadores y por medio de la
supervisión y control de su trabajo.
Una limitación muy importante se produce cuando los encuestados se niegan a responder,
debido a que una tasa de no respuesta muy alta puede vulnerar el cumplimiento de la muestra
y sesgar el resultado afectando la calidad de los datos. A fin de minimizar esto, se pueden
implementar estrategias de motivación y sensibilización en los encuestados, asi como
notificarlos con anterioridad sobre la visita del encuestador. Pero la posibilidad de llevar a cabo
estas medidas depende en gran parte del tipo de población seleccionada y los recursos con
que se cuente.
Es importante tener en cuenta que le lugar donde se aborda al entrevistado puede influenciar
la calidad de los datos.
Encuestas telefónicas
Se necesita de tecnología informática que permite el marcado de números al azar y el
procesamiento de datos inmediatamente completado el trabajo de campo. La principal
ventaja es el menor costo y la rapidez. Sus desventajas: imposibilidad de alcanzar a la
población sin teléfono, la restricción a un cuestionario corto y la imposibilidad de utilizar
material visual
Repartirlas por mail o por un sitio es más económico, pero el tener internet puede afectar
también la muestra.
Estudios comparados
Consisten en aplicar encuestas en diferentes países o culturas y replicarlas sistemáticamente a
intervalos regulares. Constituyen bancos de datos importantes por su alcance y sistematicidad.
El principal problema que presentan estos estudios es la comparabilidad de los datos, cuando
incluyen realidades culturales, sociales o económicas muy heterogéneas. Se recomienda que
se incluyan componentes cualitativos en los diseños:
Estudios longitudinales
La estrategia metodológica del Panel reside en la utilización de la muestra. El cuestionario se
aplica a una misma muestra en diferentes ocasiones a lo largo del tiempo, de modo que
resulta particularmente útil para comprobar modificaciones en las actitudes y conductas como
efecto de la participación de un estímulo o factor determinado. Uno de los principales
problemas del Panel se vincula con la mortalidad de la muestra, en la medida de que puede
perderse el contacto con algunos individuos de un registro a otro.
El cuestionario
Es el instrumento de recolección de datos utilizado en las encuestas. No es un simple listado
de preguntas, por el contrario, tiene una lógica que hay que respetar. La idea general es que
las primeras baterías de preguntas no resulten demasiado intrusivas ni requieran respuestas
comprometidas, de manera de generar confianza. Los temas que exigen mayor compromiso o
intimidad deben ubicarse al centro de la entrevista, para terminar con preguntas fáciles que
den lugar a la despedida en un clima de amabilidad.
La duración de la entrevista no debe ser excesiva para que el encuestado pueda mantener la
atención.
El semi estructurado es similar al anterior pero incorpora algunas preguntas abiertas, donde se
puede elaborar con libertad una respuesta.
Los no estructurados tienen la mayoría de las preguntas abiertas y se tiene total libertad para
elaborar respuestas.
El diseño para las preguntas cerradas estará condicionado por el grado de conocimiento del
investigador sobre la material, el nivel de heterogeneidad de la muestra y la amplitud en la
dispersión de las respuestas que se esté dispuesto a tolerar.
Cuando la pregunta tiene más de dos alternativas, pero que le entrevistado elige una sola, se
denomina alternativas múltiples. Pueden ser categoriales u ordinales, que generalmente
asumen formas escalares. Las escalas, a su vez, pueden ser verbales o numéricas. Cuando en
este tipo se puede elegir más de una respuesta, adopta el nombre de “respuestas múltiples”.
Cuando una pregunta cerrada tiene un numero grande de categorías de respuesta, se puede
utilizar una “tarjeta” (instrumento que ayuda a guiar al encuestado) donde figuran las
alternativas de respuesta.
Cuando se quiere indagar sobre preferencias, se puede presentar un listado donde se ordene
según algún criterio. Otro tipo de preguntas llamadas filtro o de pase son aquellas cuyas
respuestas reorienta a diferentes segmentos de la muestra en las preguntas del cuestionario.
Tanto el orden de las preguntas en el cuestionario como el orden que adopten las respuestas
al interior de cada pregunta cerrada pueden influir en los resultados. A fin de controlar esto se
recomienda realizar una prueba piloto del cuestionario y alterar la presentación de las
respuestas entre los encuestados, en particular cuando tienen muchas alternativas. De este
modo, se minimizan los efectos de respuestas sistemáticas.
A la hora de diseñar, es necesario tener en cuenta que la influencia de las preguntas sobre las
respuestas está condicionada en gran parte por el lenguaje. Se da por supuesto que se
reconoce el sentido de la pregunta tal como fue formulada (supuesto de interpretabilidad)
pero esto no es siempre así. El lenguaje conlleva intención y perspectiva que no siempre son
compartidas. El interpelado reconstruye el sentido de la pregunta, y su respuesta estará
asociada a esto.
Muchas palabras a veces tienen una gran ambigüedad e imprecisión y pueden adquirir
sentidos diferentes para los encuestados. También puede ocurrir que se utilice un lenguaje
técnico que muchos no comprendan. Se vuelve importante en el diseño del cuestionario,
minimizar la utilización de palabras y expresiones vagas.
Podemos definir la entrevista en profundidad como una forma especial de conversación entre
dos personas, dirigida y registrada por el investigador con el propósito de favorecer la
producción de un discurso conversacional continuo y con cierta línea argumental por parte del
entrevistado, acerca de un tema de interés definido en el marco de la investigación.
Tipos de entrevista
Se propone una tipología para clasificarla basada en dos criterios: la presencia (o no) de un
contacto visual directo entre entrevistador y entrevistado, y el grado de libertad concedido a
los actores en la situación de entrevista, ya sea al preguntar o al responder.
Es un proceso comunicativo por el cual el investigador extrae una información de una persona.
Pero no cualquiera, sino aquella que se encuentra en la biografía del entrevistado, la que fue
experimentada e interpretada.
Es un proceso donde se pone en juego una relación social e involucra a dos actores. Dado que
la relación es asimétrica, el entrevistador debe ser capaz de reflexionar sobre su rol, sus
elecciones y sobre la dirección y sentido de la investigación. Debe tener una persistente
actitud de apertura y a encontrar aquello que no esperaba, moviéndose entre
conceptualización y observación. La función principal del entrevistador es la de escuchar.
Este tipo de entrevistas se caracteriza por el alto grado de subjetividad, para muchos esto es su
principal rasgo y su mayor limitación. Se habla de hipersubjetividad: el entrevistado es un self
que relata historias mediadas por su memoria e interpretación personal, y en este sentido la
información que provee no debe apreciarse en términos de veracidad-falsedad, sino como el
producto de un individuo en sociedad cuyos relatos deben ser contextualizados y
contrastados.
Con respecto a las ventajas, permite obtener de manera flexible u na información rica y
profunda, en las propias palabras de los actores. También señala que proporciona la
oportunidad de clarificación de un marco más dinámico y espontaneo que el de las entrevistas
estructuradas de las encuestas. Resultan significativas para realizar un primer acercamiento al
tema, y además se destaca su uso a fin de enriquecer resultados de indagación cuantitativa o
cualitativa. Permite acceder a información difícil de conocer sin la mediación del entrevistador,
generalmente situaciones no directamente observables. A diferencia de las entrevistas
grupales, las individuales tienen mayor intimidad
Con respecto a las limitaciones, se señala una desventaja en términos de tiempo, así como
menor capacidad de captar fenómenos de gran dispersión territorial y/o tipológica, menor
capacidad para generalizar resultados, mayor complejidad de registro, procesamiento y
Cosas que influyen: la empatía del entrevistador y su habilidad para crear un clima favorable.
Las características personales (género, edad, raza, etc.) pueden potenciar ventajas y
desventajas en la entrevista en profundidad.
Hay una serie de cuestiones que pueden planificarse de antemano. La primera es refiere a la
selección de los sujetos a entrevistar por dos motivos importantes
Cuando se trata de personas que no son fácilmente identificables por parte del entrevistador
(por ejemplo, una minoría) se suele recurrir a la técnica de bola de nieve: a partir de uno o
unos pocos contactos iniciales, se busca ampliar progresivamente el grupo de potenciales
entrevistados que comparan aquellas características que los hacen minoritarios o poco visibles
y accesibles.
Las cuestiones de accesibilidad general se relacionan con lo que se conoce como muestreo
oportunista: se seleccionan aquellos sujetos proclives a colaborar en el estudio y donde el
entrevistador tiene acceso.
Una cuestión importante es aquella relativa al número de entrevistas. Para dar una respuesta,
se sigue el criterio de saturación: se debería seguir realizando entrevistas hasta tanto se
alcance la certeza práctica de que nuevos contactos no aportan elementos desconocidos con
respecto al tema de investigación, o no emergen aspectos hasta entonces no tratados.
Otro aspecto clave es el diseño de la guía, también llamado guión, que se utilizará en el
desarrollo. Se trata de trazar un esquema que anticipe los modos de abordar el tema central y
lo secundario. Supone tener listas de preguntas de amplio espectro, así como argumentos que
sirvan (en caso de ser necesarios) para pasar a otros temas. Su nivel de detalle puede variar.
Existe una relación directa entre el grado de familiaridad con el tema y la capacidad de pensar
de antemano la guía: a mayor conocimiento, la guía será más exacta. No es un interrogatorio,
la entrevista debe seguir su propia dinámica.
Otro punto es el lugar donde se va a realizar la entrevista, así como la forma en que será
registrada, generalmente se graba si se tiene el consentimiento del entrevistado. No se debe
dejar de tener en cuenta el lenguaje no verbal del entrevistador, si se escribe todo, esto se
pierde.
El focus group
Las entrevistas grupales se caracterizan por la presencia simultánea de varios entrevistados
que se relacionan a través de técnicas conversacionales. El focus group es un tipo de entrevista
grupal que se enmarca dentro de los enfoques cualitativos; su dinámica es organizar un grupo
de personas para que discutan un tema determinado que constituye el objeto de la
investigación. La información es recopilada, registrada y clasificada para su análisis.
Los miembros del grupo son seleccionados en función de los objetivos. Comparten ciertas
características, como puede ser edad, sexo, etc.
Objetivos
Se desarrolla en un escenario que permite observar todos los elementos que se ponen en
juego en la discusión grupal. Se orienta hacia una pluralidad de perspectivas vinculadas a una
temática, que surge de la interacción colectiva, donde se pone al descubierto las motivaciones
y cosmovisiones de los participantes así como los usos frecuentes del lenguaje.
Se utilizan preguntas abiertas y análisis interpretativo de los datos que lo ubican dentro de una
perspectiva no estándar.
Utilización
Originalmente eran utilizados en estudios de mercado. Más recientemente se usaron en
estudios académicos, como es medicina y sociología. Se utiliza en política. Es muy útil en
estudios de evaluación y en campañas publicitarias electorales.
Cada grupo se integrará de forma homogénea según ciertas características de sus integrantes,
lo cual los convierte en miembros de algún segmento de la población, o sea que aquello que
hagan puede ser interpretado como de ese segmento social. Este requisito cumple dos
funciones: vinculado al objetivo de la técnica, en la medida de que los resultados se consideran
como expresiones correspondientes al segmento de población seleccionado, y la otra
relacionada con su dinámica, ya que la similitud social facilitará el dialogo. La información
recabada no es considerada un dato individual, tampoco como dato generalizado, sino como
una expresión grupal del segmento.
1. La presentación del grupo: se explican los objetivos, reglas, uso del tiempo y
participantes
2. Planteo de las preguntas abiertas
3. Cierre
Grupos telefónicos
Se permite integrar individuos que residen en lugares geográficos diferentes. Útil para reunir
personas que no asistirán a una reunión cara a cara por sus características individuales. Tiene
un menor costo, un mayor grado de anonimato, y las transcripciones son accesibles en
tiempos más cortos. La desventaja es la incapacidad de presentar material audiovisual, aunque
algunas cosas pueden ser enviadas a los integrantes por algún medio. Para hacer estos grupos,
es necesario contar con algún tipo de tecnología que permita conferencia telefónica.
La coordinación
El coordinador es clave. Su rol es de promover el interés, la participación, la interacción y el
debate. Su objetivo es que el grupo funcione con autonomía, permitir que las ideas fluyan
libremente y solo intervenir como guía, manteniendo focalizado su contenido y estimular a
todos los miembros a participar.
El coordinador trabaja con una pauta de entrevista organizada en base a la lógica que va de lo
general a lo individual. Las preguntas abiertas iniciales son más generales y permiten ubicar al
grupo en la temática; luego se acerca la discusión al objeto deseado a través de preguntas más
puntuales.
El moderador no forma parte de la discusión ni plantea posiciones, sino que le genera el clima.
La mayor dificultad radica en estimular a los participantes a profundizar en el foco de la
discusión. Puede utilizar diferentes técnicas para estimular las asociaciones, como juego sde
presentación, test proyectivos y role playing.
Lo ideal sería que el moderador, quien realiza la transcripción y el analista sean la misma
persona, ya que como todo análisis cualitativo, la habilidad y subjetividad del analista influye
en los resultados.
Todos los pasos del focus group deben reflejarse en el informe final. Debe contener los
objetivos y las estrategias, así como toda la información relevante de la puesta en marcha, así
como los aspectos formales: número de grupos, participantes, criterios y procesos de
selección, fechas, cantidad de moderadores, tipo de registro, etc. Es importante que aparezcan
todas las opiniones y posiciones expresadas, ya que en el informe no se puede incluir toda la
información registrada.
También es posible realizar una entrevista a miembros de un grupo en forma simultánea con
un cuestionario auto administrado. Responde cada uno en forma individual, no existe
interacción. Aquí se procesa al igual que una encuesta.
Otro tipo puede ser la tormenta de ideas, con el fin de generar nuevas ideas, y es de carácter
inestructurado y exploratorio.
Los denominados grupos nominales o técnica Delphi se usan para solucionar problemas
basados en opiniones de expertos. La idea es consultar a un grupo de especialistas sobre
determinado tema y circular las respuestas en ronda para lograr un consenso. No existe
interacción simultánea o presencial, pero cada uno conoce las respuestas del resto, con lo que
se puede reformular una nueva respuesta. Los cuestionarios utilizados tienen preguntas
precisas, y luego se aplican técnicas cuantificables.
Bartolino lo grafica como una fila de la matriz de datos cuando se trata de un estudio
sincrónico (un caso observado en el correr del tiempo) y lo diferencia del “estudio de
desarrollo del caso” cuando incorpora al tiempo como una dimensión de variación.
Otros autores incluyen en sus categorizaciones del EC la posibilidad de analizar más de un caso
en forma comparada. El primero lo denomina “estudio de caso colectivo” y el segundo se
refiere a “casos múltiples”.
b) Yin. Dos tipologías basadas en diferentes criterios. Por un lado distingue, según el
número de casos seleccionados, entre el EC único que concentra la atención en un solo
caso y el EC múltiple que incluye más de un caso en un mismo estudio.
Por otro lado, Yin combina el eje único/múltiple con una clasificación EC basa en el objetio
de la investigación: exploratorio, descriptivo y explicativo.
d) Satori retoma las categorías del autor anterior pero toma en cuenta solo aquellas que
se vinculan a la teoría y las denomina estudio de caso heurístico, crucial y desviado:
i. EC heurístico: útil para la generación de hipótesis
ii. EC Crucial: fortalecen o debilitan una teoría
iii. EC Desviado: son los que se desvían de una proposición general o teoría
establecida
La mayoría de las categorías presentadas podrían reducirse a cuatro tipos básicos definidos a
partir de dos ejes: a) el número de casos de estudio, y b) la intervención prevaleciente en la
selección de casos. Los autores han prestado mayor atención a la categorización de los
estudios de caso único vinculados con la construcción de teoría. Para los comparativistas, los
estudios basados en más de un caso se enmarcan en un método comparativo y no en el
denominado EC. Por otro lado, se otorga mayor valor a los EC con valor heurístico, ya que
proveen soporte empírico, elementos conceptuales y núcleos de sentido para la comprensión
de fenómenos que los trasciende.
La selección de casos
Cuando el caso no viene definido desde fuera de la investigación, o cuando no se trata de un
caso intrínseco, surge el problema de su selección.
En primer lugar es necesario definir la unidad de análisis (individuos, ciudades, etc.), para luego
seleccionar dentro del conjunto de unidades de análisis del caso. La selección de la unidad de
análisis está condicionado por la perspectiva teórica y los objetivos de la investigación, y una
vez que esta ha sido determinada, ella condiciona la estrategia de la recolección de datos.
La selección del caso nunca se realiza por azar como en los métodos estadísticos, porque se
parte de la no equivalencia entre los casos, que se destaca a través de la propuesta orientada a
la comprensión de la especificidad de cada caso. El proceso de selección está basado en
criterios teóricos, experiencias de observación y expectativas.
La importancia de definir los limites (acotar) está en definir que se desea incluir en la
investigación y que queda por fuera.
Stake enuncia dos criterios de selección: maximizar lo que potencialmente podemos aprender
del caso y su mayor accesibilidad.
Uno de los riesgos es la selección desviada, en particular, cuando se trata de estudios para
confirmar o debilitar generalizaciones, esto es culpa de la selección no azarosa y la
participación de la subjetividad del seleccionador. Es importante hacer explícitos los criterios
de selección y su relación con la teoría para evitar esto.
Introducción
Frecuentemente, en ciencias sociales, hay una predilección por todo lo que es recolección no
estándar que va desde la aceptación de sus fundamentos hasta el rechazo de lo “cuantitativo”.
Igualmente, también hay un rechazo de convertir el resultado de una investigación en algo
más tangible: un paper, libro, etc.; en otro caso, a veces se hacen y se hacen mal.
General este tipo de objetos tangibles es científicamente valioso, pero no debe ser una mera
compilación sin interpretación o mediación. Es necesario recordar que las ciencias sociales se
caracterizan por las interpretaciones de segundo orden que los científicos hacen a partir de las
interpretaciones de primer orden que los actores verbalizan (por ejemplo en una entrevista)
acerca de su vida cotidiana.
El investigador tiene que decir algo más de lo que las informaciones recolectadas, por si
mismas, pueden llegar a sugerir. De lo contrario, su labor pierde sentido. Las técnicas de
análisis tienen un valor fundamental, ya que permiten ordenar, sistematizar, preparar la
información de una manera funcional a las posibles construcciones discursivas con las cuales
se intentará dar cuenta de los fenómenos investigados. En este sentido tienen un rol
instrumental de mediación y facilitación.
Esta función de mediación la cumplen en gran medida las técnicas estadísticas. Se trata de
técnicas en sentido fuerte: la base empírica se expresa (o puede expresarse) a través de
números y se condensa en una matriz de datos independiente del significado de esos
números. En cambio, cuando se trata por bases empíricas constituidas por imágenes, palabras
o textos que no pueden reducirse a una suma de palabras, ni tampoco transformar en
números de una matriz, el panorama de las técnicas de análisis se vuelve mucho más complejo
y variado. No existe un consenso sobre cuál es la más apropiada. Tal vez no sea correcto
denominarlas técnicas: no se trata de procesos altamente formalizados, no se usan
recurrentemente para un mismo problema y consecuentemente tampoco hay consenso acerca
de ellos en la comunidad científica.
Con respecto a las técnicas llamadas de análisis cualitativo (no estándar) hay al menos una
cuestión acerca de la cual es relativamente fácil establecer una clasificación útil: nos referimos
a las diferentes posiciones sobre la pertinencia de su sistematización, dando lugar a técnicas
en sentido estricto. Por un lado, están aquellos que creen que el análisis cualitativo es
artesanal, ligado a las aptitudes del investigador; en otro lado, están quienes creen que se
pueden hacer técnicas con características análogas a las estadísticas. Finalmente, están
quienes creen que todo proceso es complejo, y conlleva múltiples operaciones y decisiones,
que a su vez llevan a poner en juego tanto conocimientos impersonales (técnicas) como
saberes tácitos y personales.
El análisis de contenido
Es una técnica de interpretación de textos, ya sean escritos, grabados, pintados, filmados, etc.,
que se basan en procedimientos de descomposición y clasificación de estos.
Como lo indica Stemler, el interés por le tratamiento cuantitativo de los aspectos manifiestos
del texto se basa en el presupuesto de que las palabras más mencionadas permiten dar cuenta
del verdadero foco de una comunicación. Sin embargo, rápidamente se concluyó que el
análisis de contenido debía ir más alla de un simple conteo de palabras, dando lugar a la
incorporación de la exploración del contenido latente, o al menos del contexto en cuanto
“marco de referencia” donde se desarrollan los mensajes y los significados.
El clásico se presenta ahora a través de tres tipos: el análisis temático, el análisis semántico y el
análisis de redes. El temático se centra en la presencia de términos, con independencia de las
relaciones que surjan entre ellos. El semántico pretende estudiar las relaciones entre los temas
tratado en un texto, para esto se define cierta estructura significativa de relación y se
consideran todas las ocurrencias que concuerden con ella. El contenido de redes se centra en
la ubicación relativa de ciertos componentes en el texto, asumiendo que la red léxica
ideológicamente significativa que impregna el discurso se identifica sobre la base de la
reiteración y da como resultado un esquema de la organización semántica de este discurso en
forma de red.
El análisis del contenido cualitativo no niega las ventajas del cuantitativo, al que toma como
etapa inicial, sola que busca enriquecerlo a través de procedimientos interpretativos, tratando
de llegar a lo latente y al contexto en que se inscribe. Se plantea una serie de preguntas
Una vez alcanzada la versión final del esquema de codificación, y habiendo controlado su
funcionamiento con una prueba piloto, este se aplica a todos los textos en cuestión. Se trata
de interpelarlos de manera estandarizada a partir del esquema. El esquema es la base
estructural de una matriz de datos, que luego será completada con los resultados de su
aplicación al conjunto. Una vez construida su matriz, se procede a hacer análisis estadísticos,
recurriendo a técnicas univariadas, bivariadas y multivariadas habituales.
Distinto fue el caso de Glaser y Strauss con su intento acerca de procedimientos para generar
teoría fundamental, sentando las bases para lo que hoy podría considerarse práctica común en
el análisis cualitativo de transcripción de entrevistas y otros materiales afines.
El primer paso consiste en comparar distingos fragmentos de datos y agrupar todos aquellos
que remitan a una misma cuestión bajo un rotulo común hasta ir “descubriendo” categorías
conceptuales y sus dimensiones, que deberán ser saturadas. Luego, las categorías y
dimensiones ya saturadas se van articulando e integrando. En este proceso de delimitación de
la teoría se busca satisfacer el criterio de parsimonia a través de la selección de aquellas
categorías que sean centrales. Se determinarán las posibilidades de generalización de la teoría.
En todo este recorrido se recurre a la comparación constante, una suerte de dialogo de teoría
y base empírica.
Esta propuesta ha sido objeto de duras críticas. Se han señalado especialmente los riesgos del
inductivismo, el excesivo énfasis puesto en la generación de teorías a expensas de la captación
de experiencias vividas en las situaciones de interacción y la carencia de principios
suficientemente concretos como implementar en la práctica el método comparativo
constante. Sin embargo, la gran difusión de la teoría fundamentada en las ciencias sociales
permitió sentar algunas bases elementales acerca de cómo encarar el análisis de entrevistas.
La identificación de núcleos temáticos y su consecuente articulación sigue siendo práctica
común.
Alonso destaca los límites de este enfoque, donde el sociólogo no debe centrarse en el texto
por sí mismo sino en cuanto soporte de discursos. Es fundamental situar al texto en su
contexto, pero no solo entendido como marco situacional de la producción del discurso, o
como contexto semiótico/intertextual, sino como contexto social.
Una muy influyente en las ciencias sociales es la que se conoce como análisis crítico del
discurso, una perspectiva interdisciplinaria que se desarrolló desde los ochenta. Esta considera
al lenguaje en cuanto forma de práctica social, centrándose en los modos en que la
dominación política y social se reproduce a través de los textos de Fairclough.
En el contexto latinoamericano, Vasilachis ha sido una de las pioneras en aplicar elementos del
análisis del discurso en la investigación social empírica. Su propuesta metodológica pretender
abordar “el espacio en que convergen los métodos cualitativos y el análisis lingüístico de textos
orales o escritos, de acuerdo con la hipótesis de que ambas estrategias comparten supuestos
paradigmas interpretativos”. Su propuesta se articula a partir de 4 tesis fundamentales:
Sin embargo, a pesar de todos los desarrollos, aún no se asiste a una universalización de sus
aplicaciones. No existe una estrategia única sobre cómo abordar el análisis de texto en
contexto; se debe reconocer que muchas de las propuestas son fundamentalmente formas de
investigación no estándar en si; finalmente, cabe destacar que la mayoría de ellas exigen
conocimientos sofisticados que no están al alcance de la mayoría de los investigadores
sociales, y que en todo caso rara vez forman parte de su curriculum de estudio.
También puede ser considerada como un método para manejar los datos. Esto destaca de que
la estadística es una herramienta para la recopilación, organización y análisis de hechos
números o de observaciones. Esta definición es la más acertada para el tratamiento que le
daremos.
Estadística descriptiva
Un científico recolecta mucha información numérica o datos acerca del problema en cuestión.
Los datos pueden tomar diversas formas. Al realizar la función descriptiva el estadístico
formula reglas y procedimientos para la presentación de los datos en una forma más útil y
significativa. Así, establece la representación gráfica, también formula reglas para el cálculo de
diversos estadígrafos a partir de datos en bruto.
Reordenar los punteos y agruparlos para tener una imagen global de los datos
Construir tablas, graficas, etc.
Puede convertir los datos originales de forma que sean más útiles, como pasar los
números a porcentajes, etc.
Calcular promedios
Puede calcular dispersión a partir del promedio
Estadística inferencial
Para muchos, el trabajo comienza al haber completado la función descriptiva, ya que el
propósito es explorar hipótesis de naturaleza general y no simplemente comparar algunas
muestras limitadas
A partir de las dudas que surgen, se ingresa en el análisis estadístico conocido como estadística
inductiva o inferencial, lo que permite lograr conclusiones que se extiendan más allá de las
muestras estadísticas mismas.
Investigaciones experimentales
El investigador tiene el control de la variable independiente o variable estímulo, la cual puede
hacer variar en la forma que sea más apropiada a sus objetivos. De igual manera, puede
controlar la conformación de los grupos que necesita para su estudio.
Permiten determinar:
4. En muchas ocasiones, es útil darle instrucciones un tanto más detalladas que las usuales a
las personas que participan en el experimento, sin llegar a inducir las respuestas o
reacciones buscadas. Este procedimiento puede convenir cuando las condiciones en las
cuales se va a realizar el estudio son muy diferentes a aquellas en las cuales se desenvuelven
habitual mente tales personas.
Este diseño constituye la forma clásica de la investigación experimental. En él, los sujetos
del estudio son asignados aleatoria mente –al azar– al grupo experimental y al grupo de
control. Luego se siguen los pasos siguientes:
La conformación aleatoria de los dos grupos permite eliminar, al nivel del azar, las
diferencias que pudieran existir entre sus sujetos componentes; las mediciones “antes” y
“después” en ambos grupos y sus comparaciones en cada uno de ellos permiten constatar
si ha habido diferencias entre ellos, y si éstas fueran a favor del grupo experimental,
entonces el investigador podría decir que ellas se deben a la acción de la variable
independiente o trata miento que sólo fue aplicado a ese grupo.
Debido al mismo hecho de utilizar el azar, en la formación de los grupos se controlan los
factores de selección (no hay elección intencionada) y el de mortalidad (si los grupos son
prácticamente iguales, los dos deberían tener, de ocurrir, similar número de personas que no
completan el experimento). Por usar un grupo de control, el experimento clásico controla
también los factores de historia (efecto de circunstancias externas al experimento que
pueden influir en sus resultados, el cual debería ser similar para los dos grupos) y el de
maduración (cambios biológicos y psicológicos que se darían en ambos grupos de manera
semejante mientras se hace el experimento).
Para la constatación de las posibles diferencias entre los grupos experimental y de control, una
vez ter minado el experimento, se debe utilizar análisis de la covarianza con los puntajes
“antes” (pretest) como covariable. Este procedimiento permite ajustar las diferencias de
los sujetos de ambos grupos, dejando sola mente los cambios de la variable independiente
como causa de las modificaciones que se darían entre ellos.
Este diseño, como el que exponemos a continuación, puede utilizarse con más de un grupo
experimental.
Es un diseño que sólo se diferencia del clásico que acabamos de ver en cuanto, por alguna
razón o impedimento, no se hacen mediciones “antes” de la variable dependiente en ninguno
de sus dos grupos. Comprende los siguientes pasos:
El diseño controla los factores que pueden actuar contra la validez interna del
experimento, como lo son la historia y la maduración , por utilizar un grupo de control.
También controla los factores de la selección (sesgos) y de la mortalidad experimental.
Debido al hecho que no se hacen mediciones “antes” no puede haber efecto sobre la prueba
que se utiliza en la medición “después”. Pero por no utilizar medición “antes”, el diseño
tiene varias desventajas, entre las cuales se destacan las siguientes:
El análisis de los resultados (puntajes, en general) se hace comparando la diferencia entre los
puntajes “después” de ambos grupos mediante estadística. Si se utilizan más de dos grupos,
se debe utilizar el análisis de la varianza.
Es una variación del diseño clásico en cuanto consiste en aparejar (igualar, en la mayor
medida posible) los sujetos que constituirán el grupo experimental y el grupo de control, con la
finalidad de eliminar o disminuir al máximo las diferencias entre ellos. El apareamiento
cumple la misma función que la asignación al azar utilizada en el diseño clásico con el
resultado que en este nuevo diseño se logra mayor precisión en el momento de analizar
los datos.
4. Se aplica el tratamiento (por ejemplo, una exposición sobre las funciones de la política
en la sociedad) al grupo experimental y, si es necesario, un placebo al grupo de
control.
5. Como medición “después” se aplica a los dos grupos la misma prueba de la
medición “antes”, o una prueba equivalente a ella.
6. Finalmente se comparan las diferencias entre los valores “después” de los dos grupos.
Todos los diseños que hemos presentado hasta aquí trabajan con una sola variable
independiente. Sin embargo, se debe tener en cuenta que en muchas investigaciones se
utilizan dos o más variables independientes, con el propósito de determinar los efectos
combinados de ellas en la variable dependiente del caso.
Investigaciones cuasiexperimentales
En todos los diseños experimentales, propia mente tales, la asignación a los grupos
experimentales y de control se realiza en forma aleatoria, con la finalidad principal de lograr
una igualación, lo más cercana posible, de las características de los sujetos que conforman
esos grupos. Esto, en definitiva, para descartar variables (propiedades) distintas a la variable
independiente cuyo efecto particular se desea establecer en la variable dependiente.
Con toda la importancia que tiene la aleatorización de los grupos, en muchas circunstancias no
es posible cumplir con el propósito de control señalado anterior mente. Sin embargo, como
lo han señalado Campbell y Stanley, en ausencia de esa posibilidad, aún es posible realizar
experimentos que pueden tener validez interna y externa, si bien no eliminan todos los
factores que las debilitan. De manera general, los diseños en los cuales no se ha podido
utilizar el azar en la formación de los grupos reciben el nombre de diseños cuasi-
experimentales, de los cuales presentamos los de mayor utilización.
Es un diseño que se utiliza, no exclusivamente, con grupos naturales, como el constituido por
los alumnos de un cierto grado o de una cierta escuela, personas que han sido sometidas a
una intervención social (de la cual se podría tomar una muestra), etc. Tales grupos forman el
grupo experimental; el grupo de control se forma con sujetos, no elegidos al azar, que tengan
características muy semejantes a los sujetos del grupo experimental.
Investigaciones no experimentales
Las investigaciones no experimentales son aquellas en las cuales el investigador no tiene el
control sobre la variable independiente, que es una de las características de las
investigaciones experimentales y cuasiexperimentales, como tampoco conforma a los grupos
del estudio. En estas investigaciones, la variable independiente ya ha ocurrido cuando el
investigador hace el estudio. O sea, ha ocurrido un cierto fenómeno, que es tomado como
variable independiente (por ejemplo, la exposición a la televisión) para un estudio en el cual el
investigador desea describir esa variable como también los efectos que provoca sobre otro
fenómeno, que es la variable dependiente (por ejemplo, conductas delictivas). Por esta
característica distintiva en lo que se refiere a la ocurrencia de la variable independiente, las
investigaciones en las que se da esta circunstancia reciben el nombre de investigaciones ex
post facto (después del hecho).
A este tipo de investigaciones pertenecen, entre las principales, la encuesta social, el estudio
de casos, el estudio de cohortes, la observación estructurada, la investigación- acción
participativa y la investigación evaluativa.
Etapas de la encuesta
En esta etapa se debe decidir si la encuesta será o no de cobertura total. En el primer caso,
se recoge la información pertinente de toda la población o universo de estudio. En el segundo,
hay que determinar el tipo y tamaño de la muestra que se va a utilizar, como también los
criterios que se emplearán para tratar los casos de rechazo por parte de las personas,
direcciones no existentes, etc.