Sie sind auf Seite 1von 88

Metodología General de la Investigación. Reglamentada.

2013

Indice
Unidad 1: Nociones Generales ...................................................................................................... 5
Capítulo 1: Tres aproximaciones a la ciencia. Marradi ............................................................. 5
Galileo y el método experimental ......................................................................................... 5
Límites del modo experimental ............................................................................................ 5
La matriz de datos y el supuesto atomista ............................................................................ 6
El método de la asociación .................................................................................................... 6
El enfoque que se contrapone a la visión estándar .............................................................. 6
Capítulo 2: Los debates metodológicos contemporáneos. Marradi ......................................... 7
El debate intrapositivista....................................................................................................... 7
Las críticas al positivismo y los enfoques no estándar .......................................................... 8
Las propuestas de superación del debate cualitativo-cuantitativo: la triangulación
metodológica y sus límites .................................................................................................. 11
Capítulo 3: Método, metodología, técnicas. Marradi ............................................................. 12
La visión científica del método ............................................................................................ 12
Críticas a la visión clásica..................................................................................................... 12
Método y metodología........................................................................................................ 12
Las técnicas.......................................................................................................................... 13
Epistemología y gnoseología ............................................................................................... 14
Capítulo 5: el diseño de la investigación. Marradi .................................................................. 15
Introducción ........................................................................................................................ 15
Características del diseño de la investigación ..................................................................... 15
La elección de un tema, delimitaciones del problema y su operativización ....................... 16
Formalización del diseño: el proyecto de investigación ..................................................... 18
La Construcción del Objeto. Bourdieu .................................................................................... 19
El hecho se construye: las reformas de la renuncia empirista ............................................ 19
Las abdicaciones del empirismo .......................................................................................... 19
Hipótesis o supuestos.......................................................................................................... 20
La falsa neutralidad de las técnicas: objeto construido o artefacto ................................... 20
La analogía y la construcción de la hipótesis ...................................................................... 20
Modelo y teoría ................................................................................................................... 21
Estrategias o diseños de investigación científica. Ynoub ........................................................ 22
El concepto de “diseño” de una investigación .................................................................... 22

Eduardo Velázquez | www.articulando.com.uy Página 1


Metodología General de la Investigación. Reglamentada. 2013

Investigaciones descriptivas ................................................................................................ 22


Investigaciones explicativas ................................................................................................ 23
La investigación experimental ............................................................................................. 25
La investigación interpretativa ............................................................................................ 28
La integración de diseños: moneda corriente en la investigación real ............................... 30
Unidad 2: Métodos y técnicas de investigación .......................................................................... 32
Capítulo 1: El ir hacia la gente. Taylor, Bogdan. ...................................................................... 32
Capítulo 6: Conceptos de objeto y unidad de análisis. Población y muestra. Marradi........... 35
Objeto y unidad de análisis ................................................................................................. 35
Población y muestra ............................................................................................................ 35
Muestras aleatorias y no aleatorias .................................................................................... 35
¿Representativo de qué? .................................................................................................... 36
Como garantizar una (limitada) representatividad de una muestra aleatoria ................... 36
Capítulo 7: Conceptos de propiedades. Variables, fidelidad y fiabilidad ................................ 37
La definición operativa ........................................................................................................ 37
La fidelidad de los datos ...................................................................................................... 37
Para controlar la fidelidad ................................................................................................... 38
Los coeficientes de fiabilidad: una crítica ........................................................................... 38
¿Las definiciones operativas registran o manipulan opiniones y actitudes? ...................... 40
Capítulo 8: clasificación, conteo, medición, construcción de escalas. Marradi ...................... 41
Propiedades y variables categoriales .................................................................................. 41
Propiedades y variables ordinales....................................................................................... 44
Propiedades discretas cardinales y variables cardinales naturales .................................... 44
Propiedades mensurables y variables cardinales métricas................................................. 45
Propiedades continuas no mensurables y variables ordinales o cuasi cardinales .............. 46
Variables cardinales derivadas ............................................................................................ 50
Capítulo 9: indicadores, validez, construcción de índices. Marradi ........................................ 51
¿Por qué indicadores? ......................................................................................................... 51
La naturaleza de los indicadores en las ciencias sociales.................................................... 51
Aspectos indicativos y aspectos extraños: la doble pluralidad de las relaciones entre
conceptos e indicadores...................................................................................................... 51
La validez como juicio acerca de la proximidad semántica entre un concepto y su
indicador.............................................................................................................................. 52
La construcción de índices tipológicos con variables categoriales y ordinales ................... 53
La construcción de índices aditivos con variables cardinales y cuasi cardinales ................ 53

Eduardo Velázquez | www.articulando.com.uy Página 2


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 10: la observación. Marradi ...................................................................................... 55


Introducción ........................................................................................................................ 55
La observación la vida cotidiana y en la ciencia .................................................................. 55
Distintas formas de observación científica ......................................................................... 55
La observación participante ................................................................................................ 56
Uno de la observación participante en la investigación social. Ventajas y límites ............. 57
El registro de la información en la observación participante ............................................. 58
Capítulo 11: el sondeo. Marradi .............................................................................................. 59
Introducción ........................................................................................................................ 59
Supuestos ............................................................................................................................ 59
Limitaciones ........................................................................................................................ 59
Tipos de encuesta según su abordaje ................................................................................. 60
Encuestas cara a cara .......................................................................................................... 60
Encuestas telefónicas .......................................................................................................... 60
Encuestas auto administradas (sin encuestador) ............................................................... 60
Estudios comparados .......................................................................................................... 61
Estudios longitudinales ....................................................................................................... 61
El cuestionario ..................................................................................................................... 61
Formulario de las preguntas ............................................................................................... 62
Capítulo 12: la entrevista en profundidad. Marradi ............................................................... 64
Introducción ........................................................................................................................ 64
Tipos de entrevista .............................................................................................................. 64
Caracterización de la entrevista en profundidad ................................................................ 65
Usos de las entrevista en las ciencias sociales. Ventajas y desventajas ............................. 65
Preparación y planificación de la entrevista ....................................................................... 66
Capítulo 13: focus group y otras formas de entrevista grupal. Marradi ................................. 68
El focus group ...................................................................................................................... 68
Objetivos ............................................................................................................................. 68
Utilización ............................................................................................................................ 68
La dinámica de la sesión grupal........................................................................................... 69
Tipos de focus group ........................................................................................................... 69
La coordinación ................................................................................................................... 70
El registro y análisis de la información. ............................................................................... 70
Otras formas de entrevista grupal ...................................................................................... 71

Eduardo Velázquez | www.articulando.com.uy Página 3


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 14: estudio de caso/s. Marradi ................................................................................. 72


¿Método o estrategia de investigación? ............................................................................. 72
Cuando hacer un estudio de caso ....................................................................................... 72
Algunas tipologías de estudio de caso ................................................................................ 73
La selección de casos........................................................................................................... 75
Capítulo 17: otras formas de análisis. Marradi ....................................................................... 76
Introducción ........................................................................................................................ 76
La teoría fundamentada y el método comparativo constante ........................................... 78
El análisis del discurso ......................................................................................................... 78
Definición de análisis estadístico. Runyon .............................................................................. 80
¿Qué es la estadística? ........................................................................................................ 80
Definiciones de términos comúnmente utilizados en estadística ...................................... 80
Estadística descriptiva ......................................................................................................... 80
Estadística inferencial.......................................................................................................... 81
Tipos de investigaciones cuantitativas. Briones. .................................................................... 82
Investigaciones experimentales .......................................................................................... 82
Investigaciones cuasiexperimentales .................................................................................. 85
Investigaciones no experimentales ..................................................................................... 86
Encuestas seccionales y longitudinales ............................................................................... 86

Eduardo Velázquez | www.articulando.com.uy Página 4


Metodología General de la Investigación. Reglamentada. 2013

Unidad 1: Nociones Generales

Capítulo 1: Tres aproximaciones a la ciencia. Marradi


Galileo y el método experimental
Muchos filósofos opinan que la ciencia moderna empieza a fines del siglo XVI con Galileo.
Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de cada especie
de objeto del conocimiento, separando lo que es esencial y fijo (la sustancia) de lo que es
accidental y variable.

Para Galileo la tarea de la ciencia es formular, controlar y decidir aserciones acerca de


relaciones entre las propiedades de los objetos. El científico tiene que hallar la forma
matemática que estas relaciones tienen en la naturaleza. El científico debe saber interrogar
hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó las bases del método
experimental.

En su forma ideal, un experimento se obtiene solo cuando se observan los efectos de


variaciones controladas de una propiedad llamada “operativa” en otras propiedades llamadas
“experimentales” mientras se mantienen constantes todas las otras propiedades que podrían
influir sobre la segunda. La sabiduría consiste no solo en elegir la propiedad operativa más
apropiada sino también en producir cambios perfectamente controlados en ésta, y en
bloquear todas las variaciones en las otras propiedades que se sabe o se supone puedan influir
sobre la experimental, manteniéndolas efectivamente constantes.

Los objetos de muchas ciencias físicas poseen una característica que no tienen los objetos de
las ciencias sociales: son fungibles (intercambiables). Es decir, se puede dar por sentado que
los objetos del mismo tipo siempre reaccionan de la misma manera bajo las mismas
condiciones.

Límites del modo experimental


Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que otras
propiedades, no incluidas en el modelo, influyan en la propiedad experimental. Debido a la
presencia de estas innumerables propiedades, el modelo nunca se puede dar por “cerrado”.

Los límites prácticos consisten en que no siempre es técnicamente posible controlar a la


perfección las variaciones de la propiedad operativa, y todavía es menos posible neutralizar
perfectamente la influencia de las propiedades que se deberían mantener efectivamente
constantes.

El método experimental es adecuado para investigar relaciones mono causales, típicamente


diacrónicas. No es adecuado investigar relaciones funcionales, típicamente sincrónicas.
Tampoco es adecuado para investigar sistemas complejos de relaciones causales, cuando hay
una tupida de red de interacciones entre muchas propiedades que ejercen influencias
diferentes en diferentes combinaciones.

Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no se
pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se puede

Eduardo Velázquez | www.articulando.com.uy Página 5


Metodología General de la Investigación. Reglamentada. 2013

pensar que los objetos son fungibles y que se pueda estudiar un individuo y extrapolar el
resultado al resto de la sociedad.

La matriz de datos y el supuesto atomista


Es una herramienta elaborada por matemáticos del siglo XVI formado por un cruce entre un
haz de vectores paralelos horizontales y otros verticales. Tiene usos en variadas disciplinas.

Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de análisis
estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p
propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de
propiedades.

El método de la asociación
Se podría llamar método de asociación este que sustituye al método experimental en las
ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.

El enfoque que se contrapone a la visión estándar


En la aproximación comúnmente llamada “cualitativa” conviven formas de investigación muy
diferenciadas: el único rasco seguramente común a todas es un rasgo negativo, y es la no
adopción de que en la mayoría de los casos es un rechazo a adoptar los supuestos
fundamentales de la visión estándar de la ciencia. Más allá del rechazo, estos investigadores
muy a menudo comparten un valor en positivo: la sensibilidad hacia el aporte cognoscitivo y
los derechos humanos de los sujetos conocidos, una sensibilidad que a veces se constituye en
una verdadera “epistemología del sujeto conocido”

Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los caminos no
estándar de investigación:

a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran
atención por problemas de significado y una actitud de escucha frente a la realidad en
vez de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto
c) preferencia por los problemas micro
d) orientación marcadamente ideográfica, descriptiva e inductiva
e) preferencia por la comprensión global de “provincias delimitadas de significado”
f) el hecho de que la causación, si es contemplada, es considerada un proceso que se
reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre
instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo
momento
g) gran importancia de las cualidades y capacidades del investigador y de sus
colaboradores
h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en lo
gratuito, anecdótico, etc.

Eduardo Velázquez | www.articulando.com.uy Página 6


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 2: Los debates metodológicos contemporáneos. Marradi

Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.

Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido
para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada en
el sujeto por un lado, y otra centrada en la estructura social.

La diversidad de estos enfoques y sus desacuerdos dieron lugar a debates epistemológicos


sobre el estatus científico de las ciencias sociales, y metodológicos sobre los modelos de
producir y validar el conocimiento científico en estas disciplinas.

Al calor de estas controversias se definieron dos bandos: uno bajo la medición como mejor
medio para asegurar la cientificidad de las prácticas de investigación de las ciencias sociales, y
otro comprometido con el rechazo radical de cualquier intento de cuantificación de la realidad
social.

Estos debates cobraron actualizada en la década del 60 cuando terminaron de popularizarse


las antinomias cualitativo vs cuantitativo; explicación vs comprensión, objetividad vs
subjetividad, neutralidad vs participación; en definitiva, descripción de la sociedad “tal cual es”
vs crítica y transformación de la sociedad actual.

A partir de los 80 esta controversia epistemológica comenzó a perder fuerza. Se fue


imponiendo lo que se llamó “argumento técnico”: los métodos cuantitativos y cualitativos son
apropiados para alcanzar distintos objetivos y tratar problemas de índole diferente, y la tarea
del investigador no es apegarse estrictamente a un modelo, sino tomar decisiones pertinentes
en base al problema que se va a investigar. También es posible pensar un problema cuyo
abordaje requiere la combinación de métodos, que fue llamado “triangulación metodológica”.

El debate intrapositivista
La perspectiva generalista encontró su versión metodológica más acabada con el positivismo.
Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía entre el objeto
de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad de tratar
metodológicamente al primero igual que a la segunda. Esto venía de la mano de un monismo
metodológico, o sea, que existe un único modelo válido para todas las ciencias. La propuesta
de tomar como modelo a la física suponía que la realidad social también estaba regida por
leyes universales, susceptibles de ser descubiertas a partir de ese mismo método científico.

Se pretendía cuantificar aspectos de la realidad social para luego poder establecer


sistemáticamente relaciones entre ellos, con el objetivo final de postular leyes generales sobre
el funcionamiento de la sociedad y de los fenómenos sociales.

A la idea de generalización se sumaban las de objetividad y externalidad: el carácter externo y


autónomo de la realidad exigía la objetividad como requisito para alcanzar conocimiento
valido.

Eduardo Velázquez | www.articulando.com.uy Página 7


Metodología General de la Investigación. Reglamentada. 2013

El carácter empírico de la actividad científica, basada en la medición y el manejo de datos


como sustento de la explicación adquirió un carácter predominante a través de la técnica de
sondeo.

Popper propone una alternativa a lo antes planteado llamado falsacionismo. El habla de un


criterio de demarcación que distingue el conocimiento científico. No se interesaba tanto en la
distinción de ciencia y metafísica, su objetivo primordial era el de diferenciar la ciencia de la
pseudociencia. La pseudociencia, para Popper, es el conocimiento que se presenta como
científico pero que en realidad tiene que ver con los mitos primitivos. La ciencia sigue un
camino hipotético-deductivo, y la característica singular del conocimiento científico es que
esta conjetura debe ser pasible de falsación, es decir, debe poder ser demostrada falsa.

La consagración del método hipotético-deductivo como única vía válida para la producción de
conocimiento científico revitalizó la idea del monismo metodológico. Para Popper, la ciencia se
ocupa de explicaciones conformadas por sistemas de hipótesis que han resistido las pruebas
de falsación, y estas pruebas solo pueden hacerse a través de un único y mismo método.

Estas ideas fueron tomadas como base epistemológica por parte de la sociología académica de
la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias sociales. Las
propuestas de Popper pasaron a formar parte de los manuales de metodología de la
investigación social, en donde se presentaba “el” método científico.

Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un proceso
histórico, no se trata de un producto lógico-racional que se produce en el vacío sino de un
conjunto de prácticas sociales que tienen lugar en el seno de una comunidad científica. Su
concepto clave es el paradigma. Kuhn distingue entre una etapa preparadigmática (no hay
acuerdos sobre el objeto de estudio y proliferan corrientes) y otra etapa paradigmática
(cuando un paradigma logra imponerse). Ocurrirán “crisis” (producto de anomalías) donde la
ciencia puede volver a una situación preparadigmática y eventualmente desembocar en una
revolución científica, donde se conformará un nuevo paradigma. Kuhn (y otros) han planteado
que las ciencias sociales nunca han pasado de la etapa preparadigmática.

Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se
conoce como programa de investigación. Estos programas de investigación incluyen un núcleo
duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por hipótesis
auxiliares).

Las críticas al positivismo y los enfoques no estándar


El término hermenéutica significa interpretación, y en su sentido moderno hace referencia a
una interpretación profunda que involucra la relación compleja entre sujeto interpretador y
objeto interpretado.

La tradición hermenéutica adquirió relevancia metodológica y epistemológica para las ciencias


sociales en la medida que destacó la especificidad de su objeto de estudio, y la consecuente
necesidad de métodos propios para abordarlo, ligándolo al problema de la interpretación.

Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos
fenómenos estaban gobernados por aspectos imponderables.

Eduardo Velázquez | www.articulando.com.uy Página 8


Metodología General de la Investigación. Reglamentada. 2013

Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el cual
las hermenéuticas no negaban los principios y metodologías generalizadoras de corte positiva,
y el conocimiento de los fenómenos espirituales (humanos) que requerían una interpretación
profunda y que no podían ser reducidos a leyes universales. Apareció la distinción entre
aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen por objeto la
postulación de las leyes generales basadas en procesos causales uniformes, y aproximaciones
idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de los fenómenos
cambiantes que deben ser interpretados contextualmente.

Esta tradición maduró en las ciencias sociales empíricas de Weber, un antecedente de la


perspectiva no estándar. Webber define a la sociología como una ciencia que pretende
entender la acción social, interpretándola. Pero dado que para él la acción es un
comportamiento subjetivamente significativo, promueve la comprensión como el método
adecuado para investigarla.

Desde un punto de vista instrumental y operativo, los denominados métodos cualitativos de


investigación, enmarcados en la corriente interpretativa weberiana, abrevan el método
etnográfico de la antropología clásica. Todo esto también se enmarcaba en la investigación
social no estándar.

Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los casos
son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso ilumina
aspectos de una teoría general). La inducción analítica pasará a ser considerada como
intrínsecamente etnográfica.

Con los trabajos de Park y Burgues la etnografía se reorienta hacia la propia sociedad. Su
mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las otredades
urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender toda
situación social desde la visión e interpretación del propio actor en interacción. El método
consiste en asumir el papel del actor y ver su mudno desde su punto de vista.

A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la investigación
no estándar. Se resignificaron algunas prácticas metodológicas de la antropología clásica y de
la sociología, dándoles un fundamento teórico-epistemológico de corte interpretativista que
aparentemente no habían tenido en sus orígenes. Aquí jugaron un papel importante los
aportes de la hermenéutica, el constructivismo, la fenomenología, la teoría crítica y otros.

La traducción interpretativa intenta elucidar los procesos de construcción de sentido.

Shutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de experiencia.
El focaliza sus estudios sobre los procesos a través de los cuales los sujetos producen
interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las ciencias sociales
están conformadas por constructos de segundo orden, que le dan sentido a los constructos de
primer orden de los actores en la vida cotidiana.

Heredera de la fenomenología de Schutz es la etnometodología de Garfinkel. La preocupación


de este autor se orienta a la producción, legitimación, cuestionamiento y reproducción del
orden social por las actividades interpretativas de los sujetos. Desde esta perspectiva la

Eduardo Velázquez | www.articulando.com.uy Página 9


Metodología General de la Investigación. Reglamentada. 2013

conducta es descrita y explicada por su referencia a consensos socialmente compartidos. En


análisis se focaliza de otorgamiento de sentido a partir de normas sociales que dan como
resultado los criterios de normalidad.

La corriente constructivista predica también la imposibilidad del conocimiento objetivo,


fundamentado en la existencia de múltiples realidades, construidas desde diferentes
perspectivas.

Desde la antropología interpretativa se propone la interpretación como alternativa a las


explicaciones causales de la cultura. Para Levi-Strauss, la conducta era explicada a partir de la
estructura social y el significado era indagado en las reglas constitutivas del sistema
organizador de las acciones. Considera que la descripción densa constituye la forma adecuada
para dar cuenta del proceso de formación de sentido del sujeto.

Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método para
generar teoría a partir de los datos empíricos. La relación entre teoría y datos se invierte: estos
pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría. Promueve una
metodología fundada en la inducción, en la que un muestreo estadístico es suplantado por el
muestreo teórico. Las unidades de observación se seleccionan según criterios formulados
desde la perspectiva del investigador, y el tamaño de la muestra se alcanza por saturación, es
decir, cuando ninguna observación adicional agrega nada relevante.

Vinculada a la escuela de Frankfurt nace la teoría crítica, donde se incorpora la valoración


política entre los elementos del proceso investigativo. Cuestionan la objetividad del
pensamiento moderno y lo interpretan en términos de su consecuencia política.

Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único, como
es la crítica epistemológica y metodológica feminista, donde se cuestiona el esencialismo, en la
medida en que este apunta a la legitimación de las relaciones de dominación entre los géneros
anclados en la biología. Esto dio lugar a nuevas categorías de análisis como el “género”.

La reactivación del interés por la investigación cualitativa a partir de la década del 60 también
implicó que gran parte del debate metodológico se trasladaría desde la oposición
cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4 ejes
en el debate de lo intracualitativo:

a) Criterios y objetividad, centrado en cuál es el fundamento de las interpretaciones


b) El alcance crítico o compromiso político, que lleva a una distinción ente teórica
descriptiva y prescriptiva
c) La autoridad del investigador a partir de la legitimidad de la interpretación
d) Confusión de las demandas psicológicas y epistemológicas.

Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta de
rigor y precisión, asi como su incapacidad para generalizar los resultados. A partir de esto, se
instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y criterios
alternativos que fuesen más adecuados para juzgar sus procedimientos y sus productos. A
pesar de todo esto, no se ha establecido un consenso en los criterios de calidad en los estudios
cualitativos. Tal vez esto se deba a que en los 90 coexisten una multiplicidad de concepciones

Eduardo Velázquez | www.articulando.com.uy Página 10


Metodología General de la Investigación. Reglamentada. 2013

que tienen en común la perspectiva del sujeto, lo cual responde a una realidad de un mundo
posmoderno, múltiple y fragmentado, donde no es posible ninguna generalización y donde
coexisten diversas perspectivas. Se da el contexto donde los límites entre los estilos
cualitativos y cuantitativos se han vuelto imprecisos.

Pierre Bordieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad promovió


la superación de las típicas antinomias epistemológicas y metodológicas de las ciencias
sociales: explicación/comprensión, subjetivo/objetivo, micro/macro, etc. Bordieu buscó
integrar prácticas habitualmente conocidas como cualitativas con otras cuantitativas.

En los últimos años se han propuesto diversas formas de articulación o integración entre las
diferentes perspectivas metodológicas, se conocen como triangulación metodológica.

Las propuestas de superación del debate cualitativo-cuantitativo: la triangulación


metodológica y sus límites
Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea de que
ambos métodos son válidos y compatibles.

Denzin fue uno de los primeros responsables de la difusión de la idea de triangulación,


distinguiendo cuatro formas: de datos, de investigadores, teórica y metodológica. A su vez,
promovió una diferenciación entre triangulación intramétodo e intermétodo.

Los principales objetivos de la triangulación en las ciencias sociales son la convergencia y la


completitud, como medio de validación convergente o como modo de alcanzar una
comprensión más acabada de un mismo fenómeno, desde distintos ángulos. Por supuesto, la
idea de la triangulación también ha sido objetada.

De todos los tipos de triangulación, la metodología es probablemente la que ha adquirido


mayor difusión y popularidad, al punto de que se han acuñado nuevas expresiones para dar
cuenta de ella. Esta implica el uso conjunto de dos o más métodos para abordar un mismo
problema o problemas diferentes pero estrechamente relacionados. El principal argumento a
su favor es que de este modo se aumenta la confianza en los resultados.

Eduardo Velázquez | www.articulando.com.uy Página 11


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 3: Método, metodología, técnicas. Marradi

Al término método se le atribuyen significados diferentes. Una de ellas es que el método es el


camino para conseguir un fin. En el lenguaje científico encontramos método como
procedimiento, técnica.

La visión científica del método


Descartes proclama el papel central del método en la actividad intelectual, señalado también
por Francis Bacon.

La idea de un programa que establece con anticipación una serie no modificable de


operaciones que, de ser practicadas, garantizan el conocimiento científico sobre cualquier
argumento, es todavía hoy uno de los significados que prevalece a la expresión “método
científico”.

Una descripción puntual del método hipotético deductivo es la siguiente:

1. Se define el problema
2. El problema se formula en los términos de un particular cuadro teórico
3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados
4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la
hipótesis
5. Se recolectan los datos
6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada

Críticas a la visión clásica


No todos están de acuerdo. Dalton presume que el método científico es la única via hacia el
conocimiento; sin embargo Becker se pregunta si el método afronta realmente todo el
espectro de cuestiones metodológicas relevantes. Mokrzvcki sostiene que el método científico
esta fuera de la sociología. Las diferentes reacciones están relacionadas con un período, en
donde la orientación científica dominaba en las ciencias sociales: se sostenía no solo que la
ciencia tiene un solo método, sino que se trata de un método santificado por los éxitos de las
ciencias físicas. En los años siguientes, esta idea de unidad del método ha sido criticada.

Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,
identificada como el método científico, se reifique y se vuelva un fin en si. SI el criterio es el
respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación
científica.

Son muchos los que se refieren al método como una elección. Es en la toma de decisiones
donde consiste la investigación científica. El método es, por lo tanto, mucho más complejo que
una simple secuencia unidimensional de pasos.

Método y metodología
El uso de método/métodos en el sentido de técnica/técnicas ha sido y es endémico en las
disciplinas más orientadas a la investigación empírica, que están mas frecuentemente en
contacto con instrumentos operativos. Los métodos son “más nobles y generales” que las
técnicas.

Eduardo Velázquez | www.articulando.com.uy Página 12


Metodología General de la Investigación. Reglamentada. 2013

Se ha hablado de la indebida expansión semántica del término método, pero un abuso todavía
más grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el sentido de
“discurso sobre”, por lo tanto, metodología debería ser el discurso, estudio, reflexión sobre el
método. En la investigación social norteamericana se ha generado la costumbre de llamar
“methodology” a la técnica.

Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva. La
contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los dos
significados que el término metodología tiene en el lenguaje corriente de la investigación
social, significado que corresponde a los dos roles del metodólogo profesional. Cuando estudia
y enseña, un metodólogo debe tener una orientación descriptiva, es decir, debe estar abierto a
aprender de las experiencias de otros investigadores evaluándolas sin preconceptos, y
dispuesto a referir en modo sistemático y sintético aquello que ha aprendido. Cuanto utiliza
sus propias competencias, capacidad y experiencia al servicio de una investigación, suya o de
otros, el metodólogo no puede ser otra cosa que prescriptivo, en cuanto que debe elegir los
instrumentos a utilizar y como utilizarlos.

Las técnicas
También deriva del griego. Designa una capacidad artística, no aquella individual e irrepetible,
sino aquella más doméstica del artesano, transmisible de padre a hijo. En un segundo
significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad
para modificar algunos aspectos de ésta. En un tercer significado, es una ciencia la que se sirve
de técnicas para conocer mejor algún aspecto de su objeto

Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de diversas
ciencias. Son los procedimientos específicos empleados en una ciencia, o por un particular
género de investigación. El adiestramiento científico tiene que ver en gran medida con la
adquisición del dominio de las técnicas.

La tarea del investigador/metodólogo consiste en escoger el camino, teniendo en cuenta la


naturaleza de los senderos presentes en el terreno, el tiempo y los recursos disponibles.

Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a
aplicar, en la capacidad de modificar técnicas existentes, adaptándolas a los problemas propios
y de imaginar técnicas nuevas. Una vez que un procedimiento nuevo, o una modificación de un
procedimiento, han sido ideados y son codificados y difundidos, estos se reifican y se
convierten en una técnica a disposición de la comunidad de investigadores: no ya en una
capacidad privada sino en un objeto público.

Los resultados de una investigación dependen de las elecciones que el


investigador/metodólogo ha realizado. Es por este motivo que el informe de investigación
debe tener dedicada una amplia sección para comentar las elecciones realizadas, evaluando
sus impactos sobre los resultados (lo cual generalmente no ocurre). Como determinantes de
esta situación, convergen varios factores:

 El objetivismo del investigador

Eduardo Velázquez | www.articulando.com.uy Página 13


Metodología General de la Investigación. Reglamentada. 2013

 El hecho de que buena parte del público se comporta como si estuviera leyendo una
novela y no se interesan por los detalles de la investigación
 Las casas editoriales también se comportan como los lectores del punto anterior.

Los autores confinan el informe metodológico a un apéndice.

Epistemología y gnoseología
En lo que respecta a la relación entre metodología (y método) y epistemología, existe un
consenso general sobre el hecho de que la metodología ocupa la porción central de un
continuum analítico crítico entre el análisis de los postulados epistemológicos que hacen
posible el conocimiento social y la elaboración de técnicas de investigación. Ocuparse de
metodología es encontrarse en una continua tensión dialéctica entre los polos de este
continuum, porque si la metodología abandona su laso epistemológico se reduce a una
tecnología o una práctica que ya no controla intelectualmente. Si abandona el lado técnico, se
transforma en una pura reflexión filosófica sobre las ciencias sociales, incapaz de incidir sobre
las actividades de investigación.

Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino también
la gnoseología, la cual reflexiona sobre los fines, doncidiones y límites del conocimiento. Esta
gnoseología es frecuentemente olvidada, las razones pueden ser dos: una lingüística y otra
sustancial. El término “gnoseology” no existe en inglés, así que no aparece en la literatura
anglosajona, aquí se usa “epistemology” para designar la filosofía del conocimiento
(gnoseología) y “philosophy of science” para lo que nosotros llamamos epistemología.

El segundo motivo puede derivar de que todos los intentos de dar un fundamento de certeza
al conocimiento científico ha fracaso frente a la constatación, inevitable en gnoseología, de
que no puede haber nexos rígidos entre la esfera de los referentes (la realidad), la esfera del
pensamiento y la esfera del lenguaje.

Eduardo Velázquez | www.articulando.com.uy Página 14


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 5: el diseño de la investigación. Marradi


Introducción
Vamos a utilizar el término de investigación en un sentido realmente amplio. La investigación
es un proceso sistemático y organizado por medio del cual se busca descubrir, interpretar o
revisar ciertos hechos, y cuyo producto es un mayor conocimiento de éstos.

En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y con
distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en particular
al conjunto de decisiones y actividades orientadas a establecer relaciones causales entre
distintos aspectos de la realidad bajo estudio o, al menos, al control empírico (e impersonal)
de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto tipo de relación
entre determinados aspectos de ésta. La investigación es un proceso que involucra conjunto
de decisiones y prácticas por los cuales conocemos algunas situaciones de interés, cuya
definición y delimitación forma parte de las decisiones apenas aludidas. Debe quedar claro que
hablamos de investigaciones empíricas, o sea, aquellas que tienen algún tipo de relación
observacional con la situación de interés.

La relación observacional puede reducirse únicamente al empleo de una técnica de


observación en particular. Entre las muchas decisiones que se toman en una investigación,
también está la de definir cuáles son las mejores herramientas técnicas (por ejemplo, de
observación) de acuerdo con los objetivos cognitivos que se hayan planteado.

Que el proceso este atravesado por decisiones y operaciones que dependen en gran medida
del conocimiento tácito no significa que sea totalmente caótico, desordenado o imprevisible.
Por el contrario, este proceso puede ser diseñado y planificado y, entre otras cosas, esto será
un modo de hacerlo más controlable en la medida que exigirá un esfuerzo por explicitar de
modo anticipado las distintas decisiones involucradas en el mismo. Según el diccionario, un
diseño es una descripción o bosquejo, un proyecto o plan.

Características del diseño de la investigación


El diseño es una representación modélica y abstracta de cómo será, es esquemático. En la
investigación empírica, esta anticipación en abstracto de las decisiones que se van a tomar
durante su curso también puede variar, y tal variación se dará en función del grado de detalle y
explicitación que las decisiones teóricas y metodológicas adquieran antes de establecer algún
tipo de contacto observacional con los fenómenos de interés.

Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por
definición no es posible una actividad de investigación no diseñada; lo que pueden existir son
dos actividades de investigación con distintos grados o niveles de diseño. La segunda es que
desde el punto de vista del grado de detalle del diseño de la investigación no se puede pensar
en tipos cerrados sino en un continuum de diseños posibles.

Podemos identificar dos polos en una investigación: por un lado una que está absolutamente
planificada de antemano y otro totalmente opuesto donde no está nada planificado. Estos dos
polos son los llamados “tipos ideales”, pero en la práctica se dan las situaciones entre esos dos
polos, lo que se plantea la idea del “diseño flexible”, los cuales pueden ser más o menos

Eduardo Velázquez | www.articulando.com.uy Página 15


Metodología General de la Investigación. Reglamentada. 2013

estructurados según el grado de detalle que adquiera la planificación previa. Se asume que
existe un conjunto de decisiones en cualquier tipo de investigación, este “mínimo” de diseño
implica decisiones que se pueden agrupar en cuatro grandes conjuntos:

 Relativas a la construcción del objeto


 Decisiones relativas a la selección
 Relativas a la recolección
 Relativas al análisis

Si bien todas están presentes de un modo u otro en el diseño de la investigación, adquirirán


diferentes características en cada caso particular.

Por lo general, las investigaciones llamadas cuantitativas requieren de diseños más


estructurados, mientras que las cualitativas se prestan a diseños más flexibles.

La elección de un tema, delimitaciones del problema y su operativización


La primera y fundamental cuestión en un diseño de investigación es la delimitación de un
problema de investigación. Valles dice que la formulación del problema es un proceso de
elaboración que va desde la idea (propia o ajena) hasta la conversión de dicha idean en un
problema investigable. Esas ideas iniciales pueden concebirse como temas de investigación
que se relacionan con determinados recortes de la realidad propios de la estructura y del
estado de desarrollo de la disciplina científica dentro de la cual se inscribe el investigador y/o
de lo que habitualmente se conoce como “agenda de investigación”.

Hay grandes temas que no son directamente investigables, entre otras cosas por su grado de
abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a convertirse en un
problema de investigación, o sea, dar lugar a preguntas específicas que se puedan abordar
empíricamente. Un problema se define y construye a partir de un tema más amplio. Esta
definición implica fundamentalmente un movimiento progresivo desde lo abstracto y general
del tema hacia lo concreto y especifico del problema. Pero el problema no surge
espontáneamente. El proceso de construcción, en cambio, puede ser extremadamente
complejo y no linean, e implica la puesta en juego tanto de saberes tácitos como de la
experiencia; no hay una técnica para la formulación de problemas de investigación. Este
proceso es posible a partir de un conjunto de prácticas que se conocen como indagaciones
preliminares. Con esta expresión se suele aludir a las lecturas más bien generales que permiten
ir conquistando familiaridad con un tema, pero también se podría pensar en otras
modalidades de indagación como por ejemplo entrevistas con referentes en la materia. Al
plantearlas, se empieza a dar forma al problema de investigación. Pero las indagaciones en
torno de este no cesan, sino que son cada vez más focalizadas, constituyendo lo que se define
como estado de la cuestión.

El investigador debe hacer un análisis de los antecedentes, generando un estado de


conocimiento sobre el problema en cuestión. No solo se deben conocer las investigaciones
previas que puedan existir, sino además generar un dialogo crítico hacia ellas.

La delimitación de un problema conlleva a la formulación de objetivos de la investigación.


Entre el problema y los objetivos existe una relación lógica de mutua implicación; solo que si

Eduardo Velázquez | www.articulando.com.uy Página 16


Metodología General de la Investigación. Reglamentada. 2013

los problemas se plantean en una forma de interrogantes, los objetivos se expresan en cambio
por medio de proposiciones. Los objetivos son aquellos objetivos “cognitivos”, o sea, aquellos
orientados a acrecentar un conocimiento. Los objetivos se clasifican como generales y
específicos, siendo los últimos aquellos que se derivan lógicamente de los primeros y cuyo
cumplimiento concurre al logro de ellos.

Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los objetivos,
resultará necesario desentrañar el problema de investigación y analizar todas sus
consecuencias en términos de una posible respuesta empíricamente construida. Desde cierto
punto de vista, se puede afirmar que siempre existirá algún tipo de supuesto acerca de lo que
se investiga, son inherentes al planteo de la pregunta. Estos supuesto no siempre adquieren un
grado de articulación tal de poder plantarse como hipótesis. Autores afirman que las hipótesis
pueden ser el resultado de una investigación más que su disparador inicial. En tras ocasiones,
ellas no se hacen explicitas desde un principio e igualmente guían. Sin embargo, cuando el
objetivo del estudio implique la contratación de hipótesis, estas deberían estar precisamente
formuladas, especulando sobre la naturaleza y la forma de una relación. Hay autores que
sostienen que los modos más comunes en que aparecen las hipótesis en el trabajo científico
son cuatro:

1) Declaraciones condicionales
2) Funciones matemáticas
3) Declaraciones continuas
4) Declaraciones diferenciales

Independientemente del grado de formulación de la hipótesis, se otorga al problema el lugar


central y la función rectora de la investigación. No podemos no contar con preguntas.

Para hacer operativo un problema de investigación, se lo puede pensar como la explicitación


del interés del investigador por conocer algo de alguien. Ese “algo” o “que” que se quiere
conocer se expresa a través de las propiedades conceptuales (y sus relaciones) cristalizadas
verbalmente en las preguntas que guían la investigación. Por otra parte, ese “algo” se refiere
siempre a “alguien”, un “quien” que esta temporal y especialmente situado y que
técnicamente se denomina unidad de análisis.

Con respecto al “algo” de interés deberemos comenzar por su conceptualización. Se trata de


dar definiciones precisas de que se entiende en el contexto de la investigación por aquellos
términos clave que se expresan verbalmente en el foco de nuestra atención, definiciones que
en su conjunto conformarán un marco conceptual.

Habitualmente, las definiciones conceptuales son muy abstractas, las cuales se deberán
seleccionar a través de un proceso de operativización, o sea, debemos llevar al plano de lo
observable ese “algo” abstracto y luego elegir las herramientas adecuadas para observarlo.
Estas operaciones se basaran en un conjunto de decisiones que hemos denominado “de
recolección”.

También se deberá operativizar la unidad de análisis, el “alguien” de interés. En primer lugar,


dando una definición conceptual clara, esto implica dar criterios de inclusión y exclusión, estos

Eduardo Velázquez | www.articulando.com.uy Página 17


Metodología General de la Investigación. Reglamentada. 2013

criterios serán categoriales, temporales y especiales (por ejemplo, si estudiamos adolescentes,


una definición de unidad de análisis podría determinar los límites de edad para considerar una
persona adolescente, etc.). Parte del diseño de investigación consistirá en la construcción de
una muestra, que según el tipo de estudio va a seguir distintos criterios y asumirá diferentes
características. Es crucial esta elección.

Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo de
campo.

Formalización del diseño: el proyecto de investigación


Como sostiene Samaja, el objetivo central de la fase formulativa es construir escrituralmente el
objeto su versión global. Esta versión escrita y formal deberá seguir las pautas implicadas en el
proceso orientado a su gestión y control.

Eduardo Velázquez | www.articulando.com.uy Página 18


Metodología General de la Investigación. Reglamentada. 2013

La Construcción del Objeto. Bourdieu


El hecho se construye: las reformas de la renuncia empirista
“El punto de vista crea el objeto” dice Saussure. Es decir, una ciencia no podría definirse por un
sector de lo real que le corresponda como propio. El todo, tal como aparece en la mente, es un
producto de ella misma que piensa y se apropia del mundo. El sujeto, antes como después,
mantiene su autonomía fuera de la mente.

La ciencia se organiza en torno a objetos constituidos que nada tienen en común con aquellas
unidades delimitadas de la percepción ingenua. La epistemología empirista concibe las
relaciones entre ciencias vecinas, como psicología y sociología, como conflictos de límites,
porque se imagina la división científica del trabajo como división real de lo real. El posible ver
en el principio Durkheimiano según el cual “hay que considerar los hechos sociales como
cosas” el equivalente a lo que dijo Galileo que habla de la física moderna como sistema de
relaciones cuantificables.

Hay una importante distinción entre objeto “real” pre construido por la percepción y objeto
científico, como sistema de relaciones expresamente construido. Según lo ya dicho, si se
abandona la investigación científica, o solo se multiplican los criterios tomados de la
experiencia común, entonces el objeto permanece como “objeto común” y no adquiere la
dignidad de “objeto científico”.

Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y
construido sino en función de una problemática teórica que permita someter a un sistemático
examen todos los aspectos de la realidad puestos en relación por los problemas que le son
planteados.

Las abdicaciones del empirismo


Se puede definir al proceso científico como diálogo entre hipótesis y experiencia, donde ambos
socios asumirán roles simétricos e intercambiables, sin olvidarse que lo real nunca tiene la
iniciativa sino hasta cuando se lo interroga. Bachelard sostenía que el “vector epistemológico”
va de lo racional a lo real y no a la inversa. La teoría domina al trabajo experimental, desde la
partida hasta las últimas concepciones del laboratorio. Sin teoría no seríamos capaz de realizar
ningún tipo de comprobación.

La vigilancia epistemológica exige una explicitación metódica de las problemáticas y principios


de construcción del objeto que están comprendidas tanto en el material como en el nuevo
tratamiento que se le aplica. Si no se tiene en cuenta esos preliminares epistemológicos, se
está expuesto a considerar de modo diferente lo idéntico y a la inversa, a comparar lo
incomparable, etc.

Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando la frase
de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de sus
informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las
prenociones de los informantes. Obligarse a mantener aquellos elementos creados en realidad
por una indagación que se desconoce, es la manera más sencilla de negar que la comprobación
supone construcción.

Eduardo Velázquez | www.articulando.com.uy Página 19


Metodología General de la Investigación. Reglamentada. 2013

Hipótesis o supuestos
Cualquier práctica científica responde a supuestos teóricos, siempre con miras a una prueba
experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como las
prenociones.

Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal empirista del
registro sin supuestos, aunque más no fuera por el hecho de que utiliza instrumentos y
técnicas de registro. La medida y los instrumentos de medición, y en general todas las
operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad de
procedimientos de construcción, conscientes o inconscientes, de los hechos yd e las relaciones
entre los hechos.

La falsa neutralidad de las técnicas: objeto construido o artefacto


La ilusión de que las operaciones axiológicamente neutras son también epistemológicamente
neutras limita la crítica del trabajo. Esta discusión sobre neutralidad sustituye la discusión
epistemológica sobre la “neutralidad metodológica” de las técnicas, y por esta razón,
proporciona una nueva garantía de la ilusión óptica positivista.

Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las propias
interrogantes no permitirá hacer un análisis verdaderamente neutral de las respuestas que
provoca.

El cuestionario más cerrado no garantiza la univocidad de las respuestas solo por el hecho de
que se someta todos los sujetos a preguntas formalmente idénticas. Suponer que una misma
pregunta tiene sentido para sujetos sociales distanciados por diferencias de cultura pero
unidos por pertenecer a una clase, es desconocer que las diferentes lenguas no difieren solo
por la extensión de su léxico o su grado de abstracción sino por la temática y problemática que
transmiten.

La analogía y la construcción de la hipótesis


Para poder construir un objeto, hay que ser consciente de que todo objeto científico se
construye deliberadamente y metódicamente y es precio saber todo ello para preguntarse
sobre las técnicas de construcción de problemas planteados al objeto. Una metodología que
no se plantee el problema de la construcción de las hipótesis que se deben demostrar no
puede dar ideas nuevas y fecundas.

Contra el positivismo que pretende conducir a una formulación automática de hipótesis, una
hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado teórico
que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no podía
legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y a las
imágenes ingenuas o cultas de los hechos.

Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los
hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura
especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los
condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba
explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que
todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado

Eduardo Velázquez | www.articulando.com.uy Página 20


Metodología General de la Investigación. Reglamentada. 2013

más que si se utiliza con conocimiento de causa. El tipo ideal como “guía para la construcción
de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y la acción es
comparada y medida”, una construcción concebida para confrontarse con lo real. El tipo ideal
permite medir la realidad porque se mide con ella y se determina al determinar la distancia
que lo separa de lo real.

El razonamiento como pasaje de los limites constituye una técnica irremplazable le de


construcción de hipótesis. El arte de la búsqueda debe limitarse a proporcionar las técnicas de
pensamiento que permitan conducir el trabajo de construcción de la hipótesis al mismo
tiempo que disminuir los problemas inherentes

Modelo y teoría
Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las
relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden
provocar nuevas analogías, nuevos principios de construcción de objeto. Es este el
procedimiento que le confiere su fecundidad, es decir, su poder de generalización.

Eduardo Velázquez | www.articulando.com.uy Página 21


Metodología General de la Investigación. Reglamentada. 2013

Estrategias o diseños de investigación científica. Ynoub


El concepto de “diseño” de una investigación
El proceso de investigación puede definirse por el conjunto de actividades que se realizan para
encontrar las (mejores) respuestas a los problemas que lo motivan. Algunos caminos se
fueron revelando como buenas estrategias para llegar al objetivo buscado y por eso se fueron
transmitiendo a través de generaciones de investigadores. Esos caminos se conocen hoy con el
nombre de diseños de investigación.

Distinguiremos tres grandes tipos de investigaciones, y dentro de cada uno de ellos


identificaremos los distintos diseños, según sea el número y la manera de tratar las unidades
de análisis y las variables y las mediciones que se realicen a lo largo del tiempo.

Los tres tipos de investigaciones que consideraremos serán:


1. las investigaciones descriptivas.
a) simples.
b) taxonómicas.
c) correlaciones que no implican causalidad.
2. las investigaciones explicativas:
d) experimentales.
e) correlaciones causales.
3. las investigaciones interpretativas:
f) sin protagonismo/participación de los investigadores.
g) con protagonismo/participación de los investigadores.

Como adelantamos, para determinar los distintos diseños que se derivan de esta clasificación,
consideraremos en cada caso la referencia a:
• el número de variables consideradas, según la cual se distinguen diseños:
o univariados (una sola variable).
o bivariados (dos variables).
o multivariados (más de dos variables).
• el número de unidades de análisis consideradas, distinguiendo:
o estudios de caso.
o muestras pequeñas (o intensivas).
o muestras grandes (o extensivas).
o poblaciones (total de casos).
• el número de mediciones u observaciones que se hacen a lo largo del tiempo.
o transversales o transeccionales (una sola medición en el tiempo).
o longitudinales (varias mediciones en el tiempo).

Investigaciones descriptivas
Este tipo de investigaciones se propone describir el comportamiento de variables y/o
identificar tipos o pautas características resultantes de las combinaciones de un cierto número
de ellas. Se ocupan entonces de identificar las variables relevantes del objeto o asunto
investigado, y luego de averiguar cómo se comportan dichas variables.

El orden de los elementos


En otros casos la investigación descriptiva busca identificar taxonomías o tipologías
organizadas según algún criterio rector. Uno de los ejemplos más interesantes de investigación
descriptiva producidos por la ciencia es el de la famosa tabla de los elementos de Mendeleiev
(la tabla periódica). Él descubrió relaciones entre las propiedades y los pesos atómicos de los

Eduardo Velázquez | www.articulando.com.uy Página 22


Metodología General de la Investigación. Reglamentada. 2013

halógenos, los metales alcalinos y los metales alcalinotérreos. La ventaja de la tabla de


Mendeleiev sobre los intentos anteriores de clasificación era que no sólo presentaba
similitudes en pequeños grupos como las tríadas, sino que mostraba similitudes en un amplio
entramado de relaciones verticales, horizontales y diagonales.

Se puede reconocer un conjunto de investigaciones cuyo propósito es identificar la


combinación que presentan las diversas unidades de análisis en las distintas variables. En
algunas ocasiones (en particular cuando se trata de variables cuantitativas) esas
combinaciones pueden identificarse por medio de correlaciones entre las variables.

El término correlación significa “variación conjunta” entre dos acontecimientos: cuando uno
cambia, el otro también lo hace de alguna manera sistemática, en la misma o inversa dirección
que el otro.

Algunas investigaciones se proponen identificar este tipo de regularidades. Es decir, que


evalúan cómo varían conjuntamente dos o más variables. Que dos variables se modifiquen de
manera sistemática no significa, sin embargo, que una sea la causa de otra (tema que
ampliaremos al dedicarnos a las investigaciones explicativas).

Distintos tipos de diseños descriptivos


Dada la enorme variedad de investigaciones descriptivas, es posible pensar en diseños muy
distintos (considerando de manera conjunta la cuestión de las variables, las unidades de
análisis y las mediciones en el tiempo). Sólo a modo de ejemplo, comentamos los siguientes:
• univariados, con muestras extensivas o poblaciones, longitudinales: (una sola variable,
con muchas unidades de análisis, medidas a lo largo del tiempo). A modo de ejemplo:
sería el caso de investigaciones destinadas a estudiar el ritmo de crecimiento en la talla
de una determinada población.
• multivariados, de muestras intensivas, longitudinales (muchas o más de dos variables,
medidas en pocas unidades de análisis, a lo largo del tiempo): podría tratarse de una
investigación destinada a evaluar la evolución del comportamiento (cambios de
carácter, de vínculos, de comunicación, etc.) de un grupo de sujetos sometidos a
condiciones de aislamiento de su medio externo (pongamos por caso experimentos del
tipo de Gran Hermano), durante un cierto período.
• bivariados de muestras extensivas, transeccionales (dos variables, medidas en muchas
unidades de análisis, en un solo momento): correspondería a una investigación
destinada a evaluar si el color de pelo y el color de ojos se corresponden de manera
frecuente en una población o en una muestra grande de sujetos.
• bivariados, con muestras extensivas, longitudinales (dos variables, medidas en muchas
unidades de análisis, a lo largo del tiempo): por ejemplo, investigaciones que se
propongan averiguar cómo se correlaciona la respuesta a una prueba que
supuestamente podría predecir el éxito escolar y los logros efectivamente alcanzados
en la escuela luego de un cierto período.

Hay unas pocas combinaciones que no pueden funcionar como investigaciones descriptivas:
sería el caso, por ejemplo, de investigaciones de caso único, univariado, transeccional. Eso
significa, la medición de una única variable, en una única unidad de análisis, en un único
momento.

Investigaciones explicativas
Se busca determinar no sólo el comportamiento de las variables sino además la dependencia o
vinculación que unas variables mantienen con otras. Interesa probar si el comportamiento de
una variable (o varias) puede funcionar como factor o causa explicativa del comportamiento

Eduardo Velázquez | www.articulando.com.uy Página 23


Metodología General de la Investigación. Reglamentada. 2013

de otra (u otras) variable. Estas vinculaciones se pueden probar por medio de dos tipos de
estrategias: unas correlacionales y otras experimentales.

La investigación que postula correlaciones


Por ejemplo, si se afirma como hipótesis que: “La pobreza familiar atenta contra la educación
de los hijos”. De modo que: “A mayor pobreza familiar, menor educación de los hijos”.
Esta afirmación no sólo dice que “pobreza familiar” y “educación de los hijos” están
correlacionadas (cuando una sube la otra baja); sino que además una es causa explicativa de la
otra. Que algún fenómeno presente una pauta de comportamiento que varíe
sistemáticamente (de manera directa o inversa) con algún otro fenómeno no garantiza que
uno de esos fenómenos constituya una causa explicativa del otro.

En general, nuestro conocimiento del mundo nos permite reconocer cuándo una correlación
puede implicar una relación causal entre las variables. Ese conocimiento nos permite también
identificar cuál es la variable que explica y cuál la variable explicada.

De modo que tendremos correlaciones que implican causalidad y correlaciones que no


implican causalidad (las que ya examinamos al referirnos a los estudios descriptivos).
• -Una correlación implica causalidad cuando:
- una o más variables varían sistemáticamente de manera directa o inversa con
otra u otras.
- la presencia de una variable es anterior en el tiempo a otra (“la ingesta de
carbohidratos es anterior al aumento de peso”).
- nuestro conocimiento del mundo autoriza postular esa relación causal.
• -Una correlación no implica causalidad cuando:
- una o más variables varían sistemáticamente de manera directa o inversa con
otra u otras.
- la presencia de una y otra variable no guarda ninguna relación de anterioridad
con respecto a otra en el tiempo.
- nuestro conocimiento del mundo no autoriza a postular que haya una relación
causal.

Distintos tipos de diseños correlacionales según el número de variables, unidades y


mediciones
Generalmente, la investigación correlacional implica trabajar con muestras extensivas o
poblacionales y puede realizarse tanto en un mismo momento en el tiempo (de manera
transversal) o correlacionando distintas mediciones en el tiempo (longitudinal); mientras que
en cuanto al número de variables puede ser univariado (siempre y cuando la correlación se
haga en distintos momentos en el tiempo), bivariado o multivariado.

Nuevamente, a modo ilustrativo señalamos sólo algunos ejemplos de diseños correlacionales:


• bivariados, transversales, con muestras extensivas: por ejemplo, un estudio dedicado a
determinar en una muestra la correlación existente entre el nivel de rigidez de los
padres y el nivel o grado de conducta antisocial de los hijos,
• bivariados, longitudinales, con muestras extensivas: podría ser el caso de una
investigación interesada en conocer el incremento en los niveles del ruido en una
ciudad y la disminución del número de aves existentes en esa ciudad, a lo largo de un
cierto período.
• multivariados, transversales, poblacionales: una investigación de este tipo podría ser la
que se propone medir a través de un censo el nivel económico de las personas y su
correlación con el número de electrodomésticos del hogar, la cantidad de ambientes

Eduardo Velázquez | www.articulando.com.uy Página 24


Metodología General de la Investigación. Reglamentada. 2013

que tiene la vivienda que ocupan, el nivel de calidad de esa vivienda, el número de
hijos, etc.

La investigación experimental
Actualmente se entiende por investigación experimental aquella en la que se ponen a prueba
hipótesis que postulan relaciones de tipo causal entre dos o más variables; y en las que esa
puesta a prueba se realiza bajo ciertas condiciones “creadas” y “controladas” por el
investigador/a.

La diferencia entre las investigaciones experimentales y las correlaciones que implican


causalidad es que en las primeras es el investigador quien crea o motiva la relación causal a
través del experimento, mientras que en la segunda, la relación ya se ha dado y sólo se miden
o evalúan hechos consumados.

Los componentes y las condiciones de todo diseño experimental


Los componentes más relevantes que deberán tenerse en cuenta en cualquier diseño de
investigaciones experimentales son:

• Por una parte, la presencia de una variable independiente o explicativa (en la jerga
experimental también se las llama “factor”).
• Por otra parte, una variable (o factor) dependiente o explicado.
• En tercer término, lo que se llaman variables extrañas o contaminadoras.

Se habla de variable independiente o explicativa porque se supone, al formular la hipótesis,


que ésa es la variable que permite explicar el comportamiento de otra u otras variables.

En segundo lugar, se llama variable dependiente o explicada, porque se supone que su


comportamiento depende o se explica a partir del comportamiento (o variaciones) de otra
variable o variables.

No hay a priori criterios para juzgar si una variable puede o debe ser independiente o
dependiente: eso depende de cómo haya sido planteada la hipótesis. Bajo ciertas condiciones,
una variable puede suponerse como independiente y, bajo otras, como dependiente.

Un diseño experimental vincula tres tipos de variables: las variables independientes (VI), las
variables dependientes (VD) y las variables extrañas o contaminadoras (VE).

El diseño se propone garantizar que el comportamiento de la variable dependiente se debe


pura y exclusivamente a los efectos producidos por el comportamiento de la variable
independiente. De acuerdo con ello, en la investigación experimental se trata de “manipular la
variable independiente”, “medir” la variable dependiente y “controlar” las variables extrañas o
contaminadoras.
a) Manipular la variable independiente significa que el investigador/a será quién decida cómo
forma los grupos o las muestras de casos y quien establezca qué valor o nivel de la variable le
corresponderá a cada uno.

b) En lo que respecta a la variable dependiente, se pide que sea medible. Eso significa que
debe ser posible disponer de indicadores adecuados (sensibles, confiables y válidos) para
registrar los cambios ocurridos en esa variable –con el fin de evaluar luego si esos cambios se
deben a la variable independiente.

Eduardo Velázquez | www.articulando.com.uy Página 25


Metodología General de la Investigación. Reglamentada. 2013

c) Finalmente, el gran desafío del diseño experimental se cifra en lo que hemos llamado el
“control de las variables extrañas o contaminadoras”. Como el objetivo de la investigación
experimental es averiguar qué efectos producen en la variable dependiente las variables
consideradas independientes, se debe garantizar que no existan otras variables que influyan
en esta relación. Una de las maneras de “controlar” la situación experimental es a través de la
equivalencia de los grupos que participan en la experiencia, al menos en todos aquellos
aspectos que se consideran contaminadores para la relación entre las variables que quieren
estudiarse.

Existen distintas maneras de formar los grupos para garantizar en alguna medida que en todos
ellos las unidades presentan semejantes características en lo que respecta a los intereses del
experimento:

 una es la formación de grupos aleatorios: los grupos se forman de manera azarosa. Se


espera de ese modo estimar la probabilidad de una distribución homogénea (aunque
por supuesto esto nunca queda completamente garantizado, porque se trata de
probabilidades).
 técnica de bloqueo: los grupos se forman agregando al azar más el control de una o
más variables contaminadoras. Por ejemplo, si el nivel de inteligencia constituye una
variable relevante en un estudio en el que se quiere medir el efecto de la motivación
para el aprendizaje, pueden formarse “bloques” según niveles de inteligencia medidos
por algún test y luego utilizar el azar dentro del grupo.
 grupos apareados: se emplea la técnica de apareo para conseguir grupos
experimentales equivalentes, a partir de una medida previa en la variable
dependiente. Aparear significa emparejar los grupos por referencia a alguna o varias
variables. Una vez que se define cuál es la variable o variables relevantes, se evalúa el
valor que tienen todos los sujetos en esa/s variable/s (pongamos por caso nivel de
inteligencia) y se busca que a cada grupo le toquen sujetos más o menos semejantes
en cuanto a ese asunto considerado.

Ahora bien, aunque se controlen varios factores, siempre cabe la posibilidad de que existan
otros que el investigador no está controlando y que efectivamente afectan la relación que está
pretendiendo medir para probar su hipótesis.

Por eso lo que se busca es implementar procedimientos que permitan o bien controlar esos
factores o bien intentar que se distribuyan con igual probabilidad en los diversos grupos.

Ahora bien, cuanto más se controlen los potenciales factores contaminadores o extraños, las
condiciones de la situación estudiada resultan cada vez más artificiosas. De modo que cuánto
más controladas y excepcionales resulten esas condiciones, más difícil resulta también
extrapolar los resultados de esas experiencias a los contextos habituales en que se presenta el
fenómeno investigado.

Validez interna y validez externa: dos nociones en contradicción


Se denomina validez interna del diseño al grado en que pueda garantizarse que el
comportamiento o los cambios registrados en la variable dependiente se deben sólo a la
variable independiente (y a ningún otro factor). De modo tal que cuanto mayor sea el control
del diseño, mayor será su validez interna.

La validez externa, en cambio, se refiere al grado de representatividad de la experiencia:


cuanto mayor sea la posibilidad de generalización de los resultados del experimento a otras
situaciones o contextos, mayor será su validez externa.

Eduardo Velázquez | www.articulando.com.uy Página 26


Metodología General de la Investigación. Reglamentada. 2013

Generalmente la mejora o el aumento de la validez interna atenta contra la validez externa –es
decir, condiciones más restringidas o controladas implican menor capacidad de generalización
de los resultados.

Distintos tipos de diseños experimentales


Como ya sabemos los diseños experimentales pueden distinguirse entre sí según:
 el “número de mediciones que se hagan en el tiempo”,
 el “número de unidades de análisis o grupos” considerados y
 el “número de variables que se incluyan en la experiencia”.

El método experimental se basa en la comparación. En este caso, la comparación se establece


entre una situación definida como patrón o control y otra situación definida como
experimental: el control es la situación de referencia sin el tratamiento experimental, mientras
que la experimental es precisamente la que resulta de esta aplicación.

Las situaciones control y experimental refieren siempre a entidades o unidades de análisis. De


allí que, cuando se trabaja con sujetos, se hable por ejemplo de “grupo control” y de “grupo
experimental”. Pero valdría también el mismo criterio si lo que se está investigando son
“sustancias químicas” o “sistemas mecánicos”. Más correcto –por ser más general- es hablar
de muestra control y muestra experimental. Una muestra no es otra cosa que un conjunto de
unidades de análisis.

El grupo de control y la bioestadística


El grupo control se refiere a estudiar un grupo de pacientes que recibe un determinado
tratamiento o consume alguna droga nueva en comparación con otro grupo de pacientes,
quienes también participan del mismo estudio pero no reciben el tratamiento o la medicación.

Es importante que el grupo de estudio esté razonablemente balanceado por edad y sexo (a
menos que se trate de un tratamiento que nunca será utilizado en un sexo o grupo
etáreo particular). En lo que respecta al número, lo habitual es trabajar con varias muestras;
pero existen también diseños experimentales en los que se trabaja sobre la misma muestra y,
aún más, sobre el mismo y único caso o unidad de análisis.

De acuerdo con esto, se pueden distinguir tres situaciones:


 diseños intergrupos: se comparan varios grupos entre sí.
 diseños intragrupos: se compara el mismo grupo consigo mismo.
 diseños de caso único: se compara el mismo caso consigo mismo.

En los diseños “intergrupos”, por lo menos uno de los grupos se considerará control y otro
experimental.

Otra dimensión que tomamos en cuenta para la clasificación de los diseños experimentales: el
número de mediciones en el tiempo.

En principio, en casi todos los casos de diseño experimental puro se tienen por lo menos dos
mediciones en el tiempo: una antes y otra después de la administración o el tratamiento
experimental.

Sin embargo, en algunos casos, no se incluye la medida pre-tratamiento o se combinan


situaciones con medida pre-tratamiento y medida post-tratamiento (esto permite determinar

Eduardo Velázquez | www.articulando.com.uy Página 27


Metodología General de la Investigación. Reglamentada. 2013

por ejemplo, si hay efectos en la variable dependiente que puedan atribuirse a la medición
pre-tratamiento).

En los diseños de caso único o intragrupo, la medición también se hace antes y después del
tratamiento pero en ese caso esa medición se realiza sobre el mismo grupo o sujeto.

En algunas ocasiones, se deben considerar varias mediciones en el tiempo, ya sea porque se


introducen nuevos tratamientos (es decir, nuevos “valores de la variable experimental”), ya
sea porque interesa averiguar si en el fenómeno que se desea medir (la variable dependiente)
evoluciona de manera relevante a lo largo del tiempo.

Finalmente, en lo que respecta al número de variables, en el diseño experimental se requiere


como mínimo la referencia a dos variables (la independiente y la dependiente) y, por supuesto,
el control de las variables contaminadoras.

Sin embargo, existen situaciones en las que se pueden incluir más de una variable
independiente y más de una variable dependiente. Eso dependerá de la manera en que hayan
sido planteadas las hipótesis.

Límites y alcances del diseño experimental


La ciencia no se reduce a este único método. Por una parte, porque hay un sinnúmero de
fenómenos que no pueden ser abordados por medios experimentales. Otros hechos más
próximos pueden resultar igualmente inabordables por medios experimentales. Ya sea por
cuestiones éticas, ya sea por accesibilidad en el tiempo o porque no existe ninguna
posibilidad de asignar a las unidades a distintos grupos, ni manipular sus niveles de
tratamiento.

Pero además de estas cuestiones materiales, que ponen límite a la investigación experimental,
interesa advertir que la utilización de métodos experimentales no garantiza por sí mismo
riqueza ni profundidad de un trabajo investigativo. Pueden investigarse asuntos
absolutamente triviales o asuntos absolutamente relevantes aplicando estrategias
experimentales. Eso no depende de la técnica empleada, sino de la riqueza de las hipótesis
formuladas.

Por otro lado, la investigación experimental debe complementarse con otras estrategias que
contribuyan a descubrir nuevas ideas, sin las cuales no podrían llevarse adelante estudios
experimentales.

La investigación interpretativa
En este tipo de investigaciones no se apunta a la mera descripción de los hechos, ni a su
explicación causal, sino a la interpretación o comprensión de los fenómenos. Para analizarlas,
consideraremos dos grandes grupos.

Por una parte, lo que se ha dado en llamar en las ciencias sociales investigación cualitativa y,
por otra, la referencia a tradiciones más dispersas pero igualmente relevantes, que ubicaremos
bajo el rótulo de investigación de fenómenos culturales.

La investigación cualitativa
Se llama investigación cualitativa a un tipo de estrategia investigativa desarrollada en el área
de las ciencias sociales y humanas (como la antropología, la etnografía, la psicología social,
entre otras) que se nutre de orientaciones filosóficas interesadas en la comprensión de los
fenómenos históricos, humanos y subjetivos.

Eduardo Velázquez | www.articulando.com.uy Página 28


Metodología General de la Investigación. Reglamentada. 2013

Este tipo de investigación se caracteriza por la manera en que produce sus datos y por los
propósitos que persigue con el tratamiento de los mismos.

Entre esas características se cuentan:


 la comprensión de los fenómenos (más que la mera descripción o explicación),
 la implicación de los investigadores en la producción de sus datos.
 la observación en contextos naturales,
 la producción de datos ricos, profundos, dependientes del contexto.

El término “comprender” implica algo más que meramente conocer. Comprendemos algo
cuando estamos en condiciones de adoptar la perspectiva del otro.

En este tipo de investigaciones se trata no sólo de acumular datos sino de hacerlo procurando
integrar la perspectiva de los sujetos o los fenómenos involucrados en la situación estudiada.

Un rasgo de este tipo de investigaciones es que procura ser lo menos intrusiva y lo menos
distorsiva de las situaciones estudiadas. Eso quiere decir que los investigadores tratan de no
alterar las situaciones habituales de los fenómenos estudiados.

Por “contexto natural” se debe entender la situación en que se presentan habitualmente los
hechos a estudiar. Las características del “contexto” cambian según sean los asuntos
investigados.

Hay una implicación de los investigadores en la producción de sus datos. Implicarse es


“conocer desde dentro” el fenómeno que se estudia.

Los datos que se producen en este tipo de investigaciones suelen ser sumamente ricos, en
cuanto a la profundidad y perspectivas consideradas. Como se busca captar todas las
dimensiones del asunto, se intenta abordar el mismo tema desde múltiples enfoques, no
desde un solo actor o una sola dimensión, ni en un solo momento.

En este tipo de investigaciones no siempre puede preverse anticipadamente qué aspectos


serán los más relevantes, ya que el trabajo en el campo (es decir, en el lugar en que se
encuentra el asunto a estudiar) puede ir abriendo o sugiriendo nuevas líneas de desarrollo no
previstas al inicio.

Dado que los datos en profundidad terminan muy vinculados a un contexto específico, en la
mayoría de los casos los resultados no son exportables a otros contextos.

La investigación de objetos y fenómenos culturales


Incluimos en este grupo a una enorme variedad de investigaciones cuyos objetivos, al igual
que en la investigación cualitativa, están orientados a la comprensión o interpretación del
asunto investigado.

Pero a diferencia de la investigación llamada cualitativa, en este caso no necesariamente se


trata de estudiar a sujetos humanos en sus contextos vitales, sino que se incluyen también –y
especialmente diversas producciones culturales, que pueden ir desde el estudio y la
investigación artísticas (el cine, la pintura, el teatro o la música), hasta el análisis de mitos,
publicidades, discursos, narraciones populares o religiosas.

Eduardo Velázquez | www.articulando.com.uy Página 29


Metodología General de la Investigación. Reglamentada. 2013

Este tipo de investigación es frecuente en ciencias o disciplinas como la antropología, la


etnografía, la lingüística, la semiótica, la psicología, la psicología social, la investigación de arte
e incluso la sociología. En todos los casos se trata precisamente de interpretar los sentidos de
producciones culturales o psicológicas de muy diverso tipo.

Un investigador involucrado
Algunos de los rasgos de este tipo de investigaciones serían los siguientes:
Su fin principal es interpretativo, de modo que se aborda el objeto a estudiar como un mensaje
o código a descifrar.

Por lo general, la interpretación se hace por referencia al contexto histórico o institucional de


ese objeto cultural, o vinculado a la producción de ese objeto.

El investigador no necesariamente participa en el contexto de producción del material


interpretado.

Dentro de este tipo de investigaciones encontramos asuntos tan variados como el análisis de
películas, cuentos, novelas, historia escrita, publicidad, relatos de pacientes en psicoterapia,
obras musicales o plásticas, discursos políticos, científicos, etc.

Los tipos de diseño en la investigación interpretativa


Dada la característica “holística” de este tipo de investigaciones, la búsqueda de significado y
la interpretación situada, la mayoría de los diseños de este tipo, pueden dar lugar a
combinaciones de los siguientes tipos:
• multivariados o multidimensionales, muestras pequeñas, longitudinales =seguimiento
o comparaciones a lo largo del tiempo.
• multivariados o multidimensionales, caso único, longitudinales =seguimiento o
comparaciones a lo largo del tiempo.
• multivariados o multidimensionales, muestras pequeñas, transversales.
Para algunos autores el término “variable” no se aplica a este tipo de estudios (y por lo tanto
tampoco tendría sentido denominarlos estudios “multivariados”) porque consideran que en la
mayoría de los casos no se trabaja con variables que cumplan con todos los requisitos formales
que caracterizan a una variable nítidamente delimitada.

Es conveniente en tal sentido hablar de dimensión de análisis aludiendo a los campos o


asuntos de indagación. Atendiendo a esta cuestión, podemos definirlos como estudios
“multidimensionales”, ya que en todos los casos se atiende a varios aspectos o dimensiones de
manera conjunta.

De igual modo, también en todos ellos se suele trabajar con pequeñas muestras o incluso con
casos únicos (como ocurre por ejemplo en las llamadas historia de vida).

Finalmente, dada la naturaleza de estas investigaciones, resulta por lo general más frecuente
que las observaciones o el relevamiento de la información se realicen a lo largo del tiempo, en
varios momentos, que permitan luego al investigador/a comprender el proceso, sus
transformaciones, etc. Eso no significa que queden descartadas de este grupo los diseños
transversales.

La integración de diseños: moneda corriente en la investigación real


Una vez presentada la variedad de estrategias que pueden seguirse para llevar adelante un
trabajo de investigación, es necesario señalar ahora que en una investigación real con mucha
frecuencia se requiere la combinación de varias de ellas.

Eduardo Velázquez | www.articulando.com.uy Página 30


Metodología General de la Investigación. Reglamentada. 2013

Sea para tratar distintas preguntas de la misma investigación (cada una de las cuales puede
requerir de distintos diseños); sea porque durante el desarrollo de la investigación se van
precisando las hipótesis y, por lo tanto, los modos de contratar o ampliar las hipótesis. Eso
ocurre, por ejemplo, cuando se trata de validar un indicador o un instrumento de medición de
algún tipo.

Eduardo Velázquez | www.articulando.com.uy Página 31


Metodología General de la Investigación. Reglamentada. 2013

Unidad 2: Métodos y técnicas de investigación

Capítulo 1: El ir hacia la gente. Taylor, Bogdan.

El término metodología designa el modo en que enfocamos los problemas y buscamos las
respuestas. En las ciencias sociales se aplica a la manera de realizar la investigación. Nuestros
supuestos, intereses y propósitos nos llevan a elegir una u otra metodología.

En las ciencias sociales han prevalecido dos perspectivas teóricas principales. La primera, el
positivismo, reconoce su origen en el campo de las ciencias sociales en los grandes teóricos del
siglo XIX y primeras décadas del XX, especialmente August Comte (1896) y Emile
Durkheim (1938, 1951). Los positivistas buscan los hechos o causas de los fenómenos sociales
con independencia de los estados subjetivos de los individuos.

La segunda perspectiva teórica principal… fenomenológica, posee una larga historia en la


filosofía y la sociología. El fenomenólogo quiere entender los fenómenos sociales desde la
propia perspectiva del actor. Examina el modo en que se experimenta el mundo. La realidad
que importa es lo que las personas perciben como importante…

Puesto que los positivistas y los fenomenólogos abordan diferentes tipos de problemas y
buscan diferentes clases de respuestas, sus investigaciones exigen distintas metodologías.
Adoptando el modelo de investigación de las ciencias naturales, el positivista busca las causas
mediante métodos tales como cuestionarios, inventarios y estudios demográficos, que
producen datos susceptibles de análisis estadístico. El fenomenólogo busca comprensión por
medio de métodos cualitativos tales como la observación participante, la entrevista en
profundidad y otros, que generan datos descriptivos. En contraste con lo que ocurre en el caso
de las ciencias de la naturaleza, el fenomenológo lucha por lo que Max Weber (1968)
denomina VERSTEHEN, esto es, comprensión en un nivel personal de los motivos y creencias
que están detrás de las acciones de la gente…

Una nota sobre la historia de los métodos cualitativos


Los orígenes del trabajo de campo pueden rastrearse hasta historiadores, viajeros y escritores
que van desde el griego Heródoto hasta Marco Polo. Pero sólo a partir del siglo XIX y principios
del XX lo que ahora denominamos métodos cualitativos fueron empleados conscientemente
en la investigación social.

El estudio de Frederick LePlay de 1855 sobre familias y comunidades europeas representa una
de las primeras piezas auténticas de observación participan. En antropología, la investigación
de campo hizo valer sus méritos hacia principios del siglo. Boas (1911) y Malinowski (1932)
establecieron el trabajo de campo como un esfuerzo antropológico legítimo.

El empleo de métodos cualitativos se divulgó primero en los estudios de la "Escuela de


Chicago" en el período que va aproximadamente de 1910 a 1940.

Por importantes que fueran estos primeros estudios, el interés en la metodología cualitativa
declinó hacia el final de la década de 1940 y principios de la de 1950, con la preeminencia
creciente de grandes teorías (por ejemplo, Parsons, 1951) y de los métodos cuantitativos.

Desde la década de 1960 resurgió el empleo de los métodos cualitativos. Se han publicado
tantos estudios vigorosos y profundos basados en estos métodos que ha sido imposible
restarles importancia.

Eduardo Velázquez | www.articulando.com.uy Página 32


Metodología General de la Investigación. Reglamentada. 2013

Metodología Cualitativa
Refiere en su más amplio sentido a la investigación que produce datos descriptivos: las propias
palabras de las personas, habladas o escritas, y la conducta observable… Es un modo de
encarar el mundo empírico:

1. La investigación cualitativa es inductiva.


2. En la metodología cualitativa el investigador ve al escenario y a las personas en una
perspectiva holística; las personas, los escenarios o los grupos no son reducidos a
variables, sino considerados como un todo.
3. Los investigadores cualitativos son sensibles a los efectos que ellos mismos causan
sobre las personas que son objeto de su estudio.
4. Los investigadores cualitativos tratan de comprender a las personas dentro del marco
de referencia de ellas mismas. Para la perspectiva fenomenológica y por lo tanto para
la investigación cualitativa es esencial experimentar la realidad tal como otros la
experimentan.
5. El investigador cualitativo suspende o aparta sus propias creencias, perspectivas y
predisposiciones. Ve las cosas como si ellas estuvieran ocurriendo por primera vez.
Nada se da por sobrentendido. Todo es un tema de investigación.
6. Para el investigador cualitativo, todas las perspectivas son valiosas. Este investigador
no busca "la verdad" o "la moralidad" sino una comprensión detallada de las
perspectivas de otras personas. A todas se las ve como a iguales.
7. Los métodos cualitativos son humanistas. Los métodos mediante los cuales
estudiamos a las personas necesariamente influyen sobre el modo en que las vemos.
Llegamos a conocerlas en lo personal y a experimentar lo que ellas sienten en sus
luchas cotidianas en la sociedad. Aprendemos sobre conceptos tales como belleza,
dolor, fe, sufrimiento, frustración y amor, cuya esencia se pierde en otros enfoques
investigativos.
8. Los investigadores cualitativos dan énfasis a la validez en su investigación. Los métodos
cualitativos nos permiten permanecer próximos al mundo empírico. Están destinados
a asegurar un estrecho ajuste entre los datos y lo que la gente realmente dice y hace.
9. Para el investigador cualitativo, todos los escenarios y personas son dignos de estudio.
10. La investigación cualitativa es un arte. Los métodos cualitativos no han sido tan
refinados y estandarizados como otros enfoques investigativos. Los investigadores
cualitativos son flexibles en cuanto al modo en que intentan conducir sus estudios. El
investigador es un artífice. El científico social cualitativo es alentado a crear su propio
método. Se siguen lineamientos orientadores, pero no reglas. Los métodos sirven al
investigador; nunca es el investigador el esclavo de un procedimiento o técnica.

Teoría y metodología
La perspectiva fenomenológica es esencial para nuestra concepción de la metodología
cualitativa. De la perspectiva teórica depende lo que estudia la metodología cualitativa, el
modo en que lo estudia, y en que se interpreta lo estudiado.

Para el fenomenólogo, la conducta humana, lo que la gente dice y hace, es producto del modo
en que define su mundo. La tarea del fenomenólogo y de nosotros, estudiosos de la
metodología cualitativa, es aprehender este proceso de interpretación. La perspectiva
fenomenológica está ligada a una amplia gama de marcos teóricos y escuelas de pensamiento
en las ciencias sociales. Dos enfoques teóricos principal, el interaccionismo simbólico y la
etnometodología, se han convertido en fuerzas dominantes en las ciencias sociales y
pertenecen a la tradición fenomenológica.

Eduardo Velázquez | www.articulando.com.uy Página 33


Metodología General de la Investigación. Reglamentada. 2013

El interaccionismo simbólico atribuye una importancia primordial a los significados sociales


que las personas asignan al mundo que las rodea. Blumer (1969) afirma que el interaccionismo
simbólico reposa sobre tres premisas básicas. La primera es que las personas actúan al
respecto de las cosas e incluso respecto de las otras personas, sobre la base de los significados
que estas cosas tienen para ellas. De modo que las personas no responden simplemente a
estímulos o exteriorizan guiones culturales. Es el significado lo que determina la acción. La
segunda premisa de Blumer dice que los significados son productos sociales que surgen
durante la interacción: "El significado que tiene una cosa para una persona se desarrolla a
partir de los modos en que otras personas actúan con respecto a ella en lo que concierne a la
cosa de que se trata" (Blumer, 1969). Una persona aprende de las otras personas a ver el
mundo. La tercera premisa fundamental del interaccionismo simbólico, según Blumer, es que
los actores sociales asignan significados a situaciones, a otras personas, a las cosas y a sí
mismos a través de un proceso de interpretación.

Este proceso de interpretación actúa como intermediario entre los significados o


predisposiones a actuar de cierto modo y la acción misma. Las personas están constantemente
interpretando y definiendo a medida que pasan a través de situaciones diferentes. Podemos
ver por qué diferentes personas dicen y hacen cosas distintas. Una razón es que cada persona
ha tenido diferentes experiencias y ha aprendido a ver las cosas de cierta manera.

Finalmente, el proceso de interpretación es un proceso dinámico. La manera en que una


persona interprete algo dependerá de los significados de que se disponga y de cómo se aprecie
una situación.

Desde una perspectiva interaccionista simbólica, todas las organizaciones, culturas y grupos
están constituidos por actores envueltos en un proceso constante de interpretación del mundo
que los rodea. Aunque estas personas pueden actuar dentro del marco de una organización,
cultura o grupo, son sus interpretaciones y definiciones de la situación lo que determina la
acción, y no normas, valores, roles o metas.

La etnometodología no se refiere a los métodos de investigación sino al tema u objeto de


estudio: cómo (mediante qué metodología) las personas mantienen un sentido de la realidad
externa (Mehan y Wood). Para los etnometodólogos, los significados de las acciones son
siempre ambiguos y problemáticos. Su tarea consiste en examinar los modos en que las
personas aplican reglas culturales abstractas y percepciones de sentido común a situaciones
concretas, para que las acciones aparezcan como rutinarias, explicables y carentes de
ambigüedad. En consecuencia, los significados son un logro práctico por parte de los miembros
de la sociedad.

Los etnometodólogos ponen entre paréntesis o suspenden su propia creencia en la realidad


para estudiar la realidad de la vida cotidiana. Garfinkel (1967) ha estudiado las reglas del
sentido común o sobreentendidas que rigen la interacción en la vida cotidiana a través de una
variedad de experimentos maliciosos que él denomina "procedimientos de fractura".
Mediante el examen del sentido común, el etnometodólogo trata de entender cómo las
personas "emprenden la tarea de ver, describir y explicar el orden en el mundo en el que
viven".

Eduardo Velázquez | www.articulando.com.uy Página 34


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 6: Conceptos de objeto y unidad de análisis. Población y


muestra. Marradi
Objeto y unidad de análisis
La matriz tiene una gran importancia en el “método de la asociación”, son las llamadas
“matrices de datos”, que es un cruce entre vectores horizontales y verticales, donde los
horizontales son objetos y los verticales son propiedades de estos objetos.

El término se entiende en un sentido gnoseológico, como posible objeto del pensamiento


(cualquier cosa en la que se piense). Los objetos en una matriz de datos pueden ser los
individuos.

El tipo de objeto acerca del cual se buscan informaciones en una investigación se llama
“unidad de análisis”. En una investigación se debe definir no solo la unidad, sino también el
ámbito espacio-temporal que interese.

Población y muestra
Una vez determinada la unidad de análisis y el ámbito espacio-temporal, el conjunto de los
ejemplares de esa unidad que se encuentran en dicho ámbito es llamado población. Cada
ejemplar de esta población puede devenir en un caso. Esto es una fila de la matriz.

Se presenta el problema de elegir un pequeño subconjunto de esta población para


investigarlos, esto se aborda con una herramienta clásica de las ciencias sociales: el muestreo.

Un amuestra es cualquier subconjunto de miembros de una población que se investiga con el


fin de extender a toda la población las conclusiones resultantes del análisis de las
informaciones relativas al subconjunto. Esta extrapolación (de los resultados del análisis) de la
muestra a la población entera es llamada “inferencia estadística” y tiene reglas precisas que
veremos pronto.

Muestras aleatorias y no aleatorias


Una muestra se dice aleatoria cuando todos los miembros de la población tienen la misma
posibilidad de ser extraídos y entrar en la muestra. La naturaleza aleatoria de una muestra
depende integralmente del procedimiento de extracción y no tiene nada que ver con el
resultado.

Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una
población tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando cada
miembro de la población tiene la misma probabilidad conocida y no nula de ser extraído. Pero
esta distinción ofrende una cobertura científica a procedimientos que tienen poco que ver con
la ciencia y mucho con los presupuestos de quien hace el sondeo.

Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar su
obvia consecuencia (subrepresentación de todas las áreas periféricas) con otro procedimiento
discutible: la ponderación.

Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o se
niegan a ser entrevistados, esto también afecta el concepto de extracción aleatoria, haciendo

Eduardo Velázquez | www.articulando.com.uy Página 35


Metodología General de la Investigación. Reglamentada. 2013

que una muestra perfectamente aleatoria se vuelva casi siempre no aleatoria, por ejemplo,
seguro atenderán más el teléfono las amas de casa, los desempleados y los jóvenes que otro
tipo de sujetos.

¿Representativo de qué?
Para juzgar si una muestra es representativa debemos mirar el resultado, independientemente
del procedimiento con el que haya sido extraída.

Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma
probabilidad de entrar en la muestra para todos los miembros de la población), para juzgar si
es representativa debemos recurrir a consideraciones difusas y subjetivas. La difusión y
subjetividad caracterizan todo el campo semántico de la representatividad.

1. La representatividad tiene que ser controlada y eventualmente afirmada


por cada propiedad por separado
2. Debido a que la representatividad se evalúa comparando la distribución de
una propiedad en la muestra con la distribución de la misma propiedad en
la población, únicamente se puede evaluar para las propiedades cuya
distribución en la población es conocida, es decir, solo para las
propiedades que se relevan con un censo poblacional
3. La frase “esta muestra es representativa” no tiene sentido si no se le
agrega “en lo que concierne a las propiedades x, y z”.

Se puede afirmar que la extracción aleatoria no da ninguna garantía absoluta de que la


distribución de una propiedad cualquiera en la muestra sea representativa de la distribución
de la misma propiedad en la población. Solo da:

 Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas
dos distribuciones) no sean introducidos por el investigador, sino producidos al
azar.
 Una garantía razonable de que estos sesgos sean de magnitud limitada.

Como garantizar una (limitada) representatividad de una muestra aleatoria


¿No hay ninguna manera de asegurar algo más que esta garantía negativa con una muestra
aleatoria? Si la hay, pero con respecto a un número limitado de propiedades, bajo algunas
condiciones, y solo con un tipo particular de extracción dominada sistemática.

Eduardo Velázquez | www.articulando.com.uy Página 36


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 7: Conceptos de propiedades. Variables, fidelidad y fiabilidad

La definición operativa
En las columnas de una matriz de datos se encuentran las variables. Una variable es un vector
de signos que representan los estados de los casos en las propiedades que interesan.
Habitualmente, pero no necesariamente, estos signos son números.

Solo se puede hablar de una matriz de datos si todos los números (y más generalmente, los
signos) que se ven son interpretativos, es decir, son datos.

Para poner información en celdas necesitamos una convención que relacione “algo” con un
número. Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de estudio,
un plan de codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria, 3
licenciada, etc.

El plan de codificación es parte de un conjunto de reglas y convenciones que permiten


convenir una propiedad de los objetos o sujetos en la realidad en una variable en la matriz de
datos. Este conjunto se llama “definición operativa” y las partes que lo integran verían según la
naturaleza de la propiedad. La variación más considerable está vinculada al tipo de unidad de
análisis, y por consiguiente al tipo de técnica de recolección.

Si queremos recoger información del título de estudio, la definición operativa incluye

a) El texto de la pregunta relativa (¿Cuál es su título de estudio?)


b) Un plan de codificación como el ya visto
c) El hecho de que este plan sea directamente planteado al entrevistado
pidiendo que elija una respuesta, o solo sea empleado como una lista de voces
a las cuales atribuir las respuestas espontaneas de cada entrevistado a la
pregunta relativa.
d) La indicación del vector-columna en que se deben poner las informaciones
acerca del título de cada entrevistado-informaciones que se convirtieron en
datos representando cada una de ellas con el correspondiente número del
plan de codificación.
e) Insertar un procedimiento con el que se controlará la sinceridad de las
declaraciones de los entrevistados.

Una definición operativa es el conjunto de todas las operaciones, intelectuales y materiales,


que permitan pasar de estados reales a números que representan esos estados en la matriz,
debemos concluir que, junto con las reglas y convenciones específicas de la propiedad en
cuestión, una definición operativa incluye las reglas y convenciones más generales y comunes
a todas las propiedades que se indaguen en esa investigación específica y en todas aquellas
análogas.

La fidelidad de los datos


Un dato tiene escasa fidelidad si no representa correctamente el correspondiente estado en la
propiedad según las convenciones de la definición operativa. Una causa de esto, por ejemplo,
son declaraciones mentirosas.

Eduardo Velázquez | www.articulando.com.uy Página 37


Metodología General de la Investigación. Reglamentada. 2013

Los investigadores saben que los entrevistados tienden a declarar como propias las opiniones
que creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido como
“deseabilidad social”, y es tan difundido que hace poco fiables los resultados de encuestas
sobre opiniones realizadas con preguntas sencillas y directas, ya que es fácil para el
entrevistado imaginar cual sea la respuesta convencional, y por lo tanto, socialmente deseable.

Además pueden dar involuntariamente informaciones que generan datos no fidedignos. Por
ejemplo que no entiendan bien la pregunta, mala memoria, etc.

El entrevistado no es la única fuente no fidedigna de un sondeo. El entrevistador, por ejemplo,


puede leer mal alguna pregunta, o alguna respuesta del plan de codificación pueden influir en
las respuestas del entrevistado. Pueden haber faltas en la trascripción de lo que se dijo por el
entrevistado, etc.

Para controlar la fidelidad


Dada que la escasez de fidelidad empeora la calidad y reduce la credibilidad de una
investigación, se debería dedicar mucha más atención al control de la fidelidad.

El más simple es una inspección de las distribuciones de frecuencia de cada variable, o sea,
cuantos datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto nos
permite tomar contacto con los datos que hemos recogido, además, nos permite descubrir si
algunos datos tienen códigos que no estaban previstos en la codificación.

Este análisis de distribuciones se llama “control de códigos locos”.

Otro dato es corroborar si las combinaciones de categorías son social o jurídicamente


imposibles en una sociedad dada. Esto se llama control de coherencia.

Todas las otras formas de control se aplican confrontando los datos con informaciones que se
encuentran fuera de la matriz.

Los coeficientes de fiabilidad: una crítica


Se describe el destalle de su aplicación

a) Para medir la fiabilidad de un test se aplica en una cierto día a una muestra de sujetos
b) Se registran las respuestas a las preguntas y se le atribuye un puntaje a cada respuesta
c) A cada sujeto se le atribuye la suma o el promedio de sus puntajes, y esa cifra, siendo
el resultado global de cada individuo en el test, se pone en un vector-columna
d) Después de algún tiempo se repite la fase a con los mismos sujetos, mismas preguntas.
e) Se repite la atribución de puntaje y se ponen las cifras en otro vector-columna
f) Se calcula el coeficiente de correlación entre ambos vectores
g) Esta cifra es llamada “coeficiente de correlación test-retest”. Se considera una medida
de fiabilidad

Muchos psicólogos han expresado varias críticas a esto

a) En el intervalo de tiempo entre test y retest, el estado de algunos sujetos en la


propiedad investigada puede cambiar, o cambiar la conducta del investigador al aplicar
el test

Eduardo Velázquez | www.articulando.com.uy Página 38


Metodología General de la Investigación. Reglamentada. 2013

b) La primera suministración puede cambiar artificialmente el estado del sujeto en la


propiedad, y esto en varias formas
a) El sujeto puede recordar las respuesta que dio antes y repetirlas para ser
coherente
b) Si el test concierne a cualquier forma de habilidad, la primera suministración
puede actuar como entrenamiento, entonces la prestación de algunos sujetos
mejora en el retest.
c) La primera puede acrecentar el interés de algunos sujetos hacia los problemas
investigados y eso los hace investigar, reflexionar, etc.
d) Pueden haber otros efectos como acostumbramiento, desencanto, etc.

Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería determinante
si ambos resultados cambiasen.

Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas o
pruebas, formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos
vectores deseados se producían sumando ambos puntajes. SI la correlación resultaba alta, eso
confirmaba el supuesto de equivalencia de los dos tests y simultáneamente la fiabilidad de uno
con el otro.

Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores deseados
simplemente sumando por separado los puntajes conseguidos por un sujeto en las preguntas
que tienen un numero par en la secuencia del test y en los que tienen un número impar. El
coeficiente de correlación así producido fue bautizado “subdivisión a la mitad”

Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar con
las respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por quitarse un
peso de encima. Esto se conoce como “respuesta self”.

Un progreso técnico se produjo a finales de los 30 que se propuso el “coeficiente alfa”


aplicable a toda batería.

Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está vinculada
a los test en sus laboratorios, es decir, baterías de preguntas o pruebas de formato igual. No es
aplicable a ninguna de las otras herramientas que se usan en un sondeo. Además, asignar un
coeficiente de fiabilidad de un test como si fuera un atributo permanente lleva a una falla de
conceptos y además roza un problema de generalizabilidad.

No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones. Esto
parece obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un grupo
son transferidos a todos los otros grupos sin cuestionamiento.

La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le aplica el
test para calcular su coeficiente de fiabilidad:

a) Cada sujeto tiene una manera particular de reaccionar ante las preguntas
b) Cada pregunta o prueba tiene su particular nivel de inteligencia, agrado y
aceptabilidad

Eduardo Velázquez | www.articulando.com.uy Página 39


Metodología General de la Investigación. Reglamentada. 2013

c) La reacción de cada sujeto no es estable, puede variar con cada situación

Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se siguen
volviendo más técnicos con los años y más alejados de la realidad.

¿Las definiciones operativas registran o manipulan opiniones y actitudes?


Hemos visto que limitándose al análisis de datos de la matriz y olvidando mirar afuera, se
pueden lograr coeficientes de fiabilidad tranquilizadores que, sin embargo, no tienen ninguna
relación con las situaciones reales.

Esta manera de proceder no es problema de la matriz, sino de quienes la usan. La matriz es un


instrumento neutro, que se puede usar para descubrir indicaciones significativas sobre
situaciones reales.

Eduardo Velázquez | www.articulando.com.uy Página 40


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 8: clasificación, conteo, medición, construcción de escalas.


Marradi

Algunas propiedades, sean de objetos o de personas, tienen un numero finito de estados,


claramente distintos y distinguibles uno del otro, en una palabra, son discretos. Discretas se le
llaman a las propiedades que tienen estos estados discretos. Las propiedades que tienen un
número infinito de estados son llamadas “continuas”.

La distinción entre discreto y continuo es lo más importante al momento de recolectar


información y transformarla en datos por medio de una definición operativa.

Las discretas se dividen en tres clases según el tipo de relación que hay entre sus estados.

 Categoriales: si los estados son solo diferentes, pero no hay ningún tipo de relación
cuantitativa entre ellos.
 Ordinales: si los estados tienen relaciones ordinales (de mayor y menor) se pueden
ordenar a lo largo de una escala.
 Cardinales: si tienen relaciones cardinales, en el sentido de que se puede
legítimamente establecer un cociente entre ellos.

Las continuas se dividen en dos clases:

 Mensurables: si sus estados se pueden registrar sin intervención activa del individuo
cuyo estado se está registrando
 Continuas no mensurables: si la intervención debe ser activa

Propiedades y variables categoriales


En la realidad hay una gran variedad de estados en las propiedades, se debe decidir qué
estados se convertirán en categorías de la variable que va a representar la propiedad de la
matriz. Se necesitará intervención de expertos para resolver estas situaciones, inclusive
cuando la transformación de estados en categorías parece simple y automática.

Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los principios
de una operación intelectual (la clasificación). Esta operación se puede llevar a cabo en
abstracto, considerando las diversas formas que puede tomar un objeto o evento (por
ejemplo, los múltiples estados que puede concebir una propiedad).

El criterio que se sigue para dividir la intensión de un concepto o para agrupar ejemplares
tiene el nombre de “fundamentum divisionis”. Un ejemplo es dividir un grupo por el color del
pelo (morocho, rubio, etc).

Si se adoptan 2 o más criterios (morochos hombres o mujeres, rubios hombres o mujeres) la


operación se llama “tipología”.

Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la mutua
exclusividad vale tanto para tipologías como para clasificaciones.

Eduardo Velázquez | www.articulando.com.uy Página 41


Metodología General de la Investigación. Reglamentada. 2013

Otro requisito de la clasificación es la exhaustividad de las categorías: todos los estados


posibles deben estar asignados a una categoría. Como esto no es posible, muchas veces se
prevé la categoría “otro” donde finalizan todos los estados no previstos. Que nada tiene que
ver con una categoría de “no contesta” o “no sabe”.

Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que han
sido formuladas con un lenguaje lejano al del entrevistado. Una cuota demasiado alta de “no
contesta” puede significar que algunas preguntas tocan temas delicados o privados. Una cuota
muy alta de “otro” significa que la clasificación puede haber sido realizada de manera
superficial.

Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es decir,
sometiendo preliminarmente el cuestionario a algunos miembros de la población a examinar.
Reflexionando sobre estos resultados, se pueden obtener mejoras. Estas pruebas piloto a
veces se ejecutan solo como “ritual” y antes del sondeo, donde no hay tiempo para analizar
nada.

Otro problema es la división de fundamentum divisionis, o sea, la forma en que se establecen


las categorías (que debe ser relevante para nuestros intereses). Se aconseja siempre el
máximo detalle cada vez que las informaciones sean recogidas sin interacción oral con un
sujeto. Un detalle mucho menor (pocas categorías y claramente distintas) si el sujeto tiene que
escuchar las alternativas y elegir una sin poder apoyarse en un texto escrito. SI la entrevista es
telefónica, se aconseja limitarse a dicotomías (si/no) o a propiedades sencillas.

Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más
importante en la transformación de la propiedad categorial en una variable categorial. Aquí
hay que evitar el problema de algunos traten estos aparentes números de las categorías en
sentido estricto y los analicen.

Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este siendo
analizado con técnicas estadísticas, una categoría cambia de nombre y se llama “modalidad”.
Con la expresión “frecuencia de una modalidad” se entiende el número de datos a los cuales
se atribuyó aquella modalidad. La modalidad con la frecuencia más alta se llama “moda” (o
modo) y esto en todos los tipos de variables.

El primer paso de análisis de una variable categorial es la producción de su distribución de


frecuencia, es decir, una tabla que tiene habitualmente tres columnas: código, nombre de la
categoría/modalidad, frecuencia (absoluta) y en la última el porcentaje correspondiente
(frecuencia relativa).

La inspección visual de sus distribuciones de frecuencia es la forma preliminar de análisis de


variables categoriales. Ella permite tomar contacto con los datos recolectados. Puede señalar
la presencia de errores en la codificación, si en la distribución aparecen códigos que no se
habían visto previstos en nuestro plan. Ella señala también el desequilibrio en las frecuencias
(modalidades con un numero demasiado alto o bajo), que pueden también indicar errores en
la codificación y que de todas formas provocan problemas en algunos tipos de análisis
estadísticos.

Eduardo Velázquez | www.articulando.com.uy Página 42


Metodología General de la Investigación. Reglamentada. 2013

Una vez realizado este paso preliminar, una variable categorial está casi lista para ser puesta
en relación con otras variables categoriales u ordinales mediante una tabla bivariable, o con
variables cardinales mediante el análisis de la varianza. Se dijo “casi lista” porque si se quiere
investigar de manera eficiente las relaciones de las variables categoriales con otras variables,
hay que someter casi todas a una especie de “maquillaje” que constituye una verdadera fase
intermedia entre recolección y análisis. Esta es una fase descuidada generalmente.

Cuando se quieren analizar las relaciones de una variable categorial con otra variable, cabe
decir que el mismo nivel de detalle que es positivo en la recolección y análisis univariado
(detalle y sensibilidad), se convierte en negativo. El grado de negatividad depende de la otra
variable con la cual establecemos relación: si es un cardinal, el problema no es grave, si es un
ordinal, este resulta mayor, pero aún no tan grave; si es un categorial, un alto nivel de detalles
(muchas categorías) puede producir dificultades importantes. Esto es porque la herramienta
con la que se analizan las relaciones entre dos variables, la tabla bivariable, el número de las
celdas equivale al producto de las modalidades de las dos variables que forman la tabla. Con
dos variables de diez modalidades, el número es cien, etc. Esto crea dos problemas, uno
numérico y otro semántico.

Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más
frecuente que otra, siempre estando algunas celdas vacías y otras no. De celdas vacías o casi
vacías no se pueden sacar conclusiones, o sea, una matriz vacía o semi vacía no sirve para
mucho análisis.

Para hablar del problema numérico, es necesario hablar del concepto de autonomía
semántica. Una categoría tiene plena autonomía semántica si puede ser interpretada sin hacer
referencia al significado de la propiedad o de las otras categorías. Por su naturaleza, las
categorías de las variables categoriales tienen plena autonomía semántica. Lo que significa que
cada combinación de las categorías de dos variables categoriales tiene su sentido y necesita
atención y concentración para enfocar su pleno significado.

El investigador experto prefiere enfocar su atención en pocas tablas elegidas con cuidado y
hacerlas manejables, reduciendo al mínimo las celdas vacías o casi vacías, de manera de poder
aprehender todo lo que indica la tabla en un tiempo razonable. Para lograr este objetivo habrá
que reducir el número de las categorías en ambas variables.

Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos criterios: uno
medular es la proximidad semántica entre las categorías que se desea unir; otro criterio es el
equilibrio entre las frecuencias en las distintas modalidades. El metodólogo experto trata de
evitar la presencia de modalidades, y por lo tanto celdas, con frecuencia demasiado altas o
bajas, ya que ambas perjudican la interpretabilidad de una tabla.

Las consecuencias de graves desequilibrios son conocidas: categorías con baja frecuencia
producen inevitablemente celdas vacías o casi vacías, dando conclusiones no confiables. A
veces para dar una distribución más equilibrada no basta reagrupar categorías
semánticamente parecidas y con escasa frecuencia, se debería también disgregar una
categoría que resultó tener un porcentaje excesivo.

Eduardo Velázquez | www.articulando.com.uy Página 43


Metodología General de la Investigación. Reglamentada. 2013

Propiedades y variables ordinales


Son ordinales las propiedades en las que se pueden ordenar todos los estados a lo largo de una
escala según un criterio semánticamente vinculado a la naturaleza de la propiedad, de forma
que hay un estado mayor que otros, uno menor, etc. El tratamiento de las propiedades
ordinales tiene mucho en común con el tratamiento de las propiedades categoriales

1. Se adopta un fundamentum divisionis adecuado a nuestros intereses cognoscitivos


2. Si los estados son muchos, se debe decidir cuales se convertirán en categorías de la
variable que va a representar la propiedad en la matriz
3. Las categorías se crean y/o delimitan siguiendo los principios de la clasificación.
4. Se establecen límites entre las categorías de modo que sea mutuamente exclusivas
5. Se procura que el complejo de las categorías sea exhaustivo

En este caso, los estados están ordenados en la realidad, o se puede imaginar un criterio
intersubjetivo para ordenarlos. La serie de códigos debe tener una relación monotónica directa
con el orden de los estados en la realidad: al crecer la posición ordinal del estado, hay que
acrecentar también el código numérico asignado a la modalidad correspondiente.

El problema de unir categorías semánticamente parecidas con otras variables, pierde su


importancia. Y eso no solo porque las categorías de una propiedad ordinal habitualmente no
son muchas, sino también porque ellas pierden parte de su autonomía semántica, en cuanto al
interés semántico pasa de las categorías individualmente consideradas al orden de las
categorías. Por lo tanto, en una tabla bivariable que incluye una o dos variables ordinales se
tiende a mirar la tendencia global más que las celdas singulares.

Una importante consecuencia directa de la reducción de autonomía semántica por parte de las
categorías ordenadas es que en las tablas que presentan la distribución de los porcentajes
relativos a cada modalidad singular deben ser reemplazados, o acompañados, por porcentajes
acumulados, lo cual se calcula teniendo en cuenta no solo la frecuencia de aquella modalidad
sino también las frecuencias de las modalidades que la preceden en el orden. A veces puede
ser útil presentar porcentajes retro acumulados, que suman la frecuencia de aquella
modalidad con los de las modalidades que siguen en el orden.

Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite
detectar inmediatamente la categoría mediana de una distribución. En una secuencia de cifras,
la mediana es la cifra que divide la serie en dos partes iguales.

Propiedades discretas cardinales y variables cardinales naturales


La expresión “variable continua” es una contradictio en adieto (el adjetivo contradice al
sustantivo), así como la expresión “variable discreta” es redundante. Ya que una variable
cardinal también se deriva de una propiedad continua mensurable a través de medición, para
distinguir las cardinales que se originan a partir de una propiedad discreta se agrega el adjetivo
“naturales”, en el sentido de que en estas variables ya sea el punto cero (ausencia de la
propiedad) ya se la unidad de computo (el número 1) son naturales y no radican en una
decisión del investigador o de la comunidad científica.

Eduardo Velázquez | www.articulando.com.uy Página 44


Metodología General de la Investigación. Reglamentada. 2013

Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y variables
cardinales métricas (las que derivan de una medición) pierda toda su importancia, y se puede
hablar de variables cardinales sin más.

Como se decía acerca de las variables categoriales, el criterio que rige la recolección de
informaciones no es para nada el mismo que rige la presentación de los datos y su análisis. En
el caso de las variables categoriales, la razón principal para agrupar categorías se presenta ne
la fase de análisis, y radica en la necesidad de reducir el número de celdas en las tablas cuando
se analicen sus relaciones con otras categorías y ordinales, pero la posibilidad de
reagrupamiento tiene un límite en el hecho de que cada categoría tiene plena autonomía
semántica, y por lo tanto solo se pueden agrupar categorías semánticamente parecidas.

En el caso de las variables cardinales, la razón para agrupar categorías cuando se presentan los
datos es otra y concierne únicamente a ésta fase.

Se agrupa categorías en clases de amplitud variable conforme a los objetivos de la


investigación. Obviamente, se agrupan las categorías numéricamente más cercanas.

Al agruparse categorías no hay otro problema que plantearse más que el número: la
proximidad semántica no es un problema porque las categorías de una variable cardinal tienen
una autonomía semántica muy reducida, que va poco más allá del aspecto meramente
numérico. Por otro lado, esta escasa autonomía semántica no se puede descuidar.

En término metodológicos, esto significa que en muchas propiedades discretas cardinales, las
categorías más cercanas al cero tienen una mayor autonomía semántica que otras. Como
consecuencia, las clases iniciales de las variables cardinales tienen habitualmente una amplitud
reducida.

Ya que las modalidades de las variables cardinales son números en sentido estricto, se las
puede someter a todas las operaciones matemáticas.

De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que
habitualmente se representa mediante la dispersión de sus datos respecto a este promedio.
Dado que los códigos de una variable cardinal son números, no hay dificultad para calcular un
valor que sintetice la dispersión de sus datos en una muestra o en una población, donde, de
forma sencilla, podemos calcular una desviación de X respecto a un promedio. Esa desviación
podrá ser positiva o negativa.

A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza, varianza,
desviación típica y coeficiente de variación, los cuales son valores globales, en el sentido que
se refieren a distribuciones enteras y no a casos singulares. El procedimiento que permite
saberlo se llama estandarización. La estandarización sirve también para construir índices
aditivos que sumen variables cardinales con una extensión de escala diferente.

Propiedades mensurables y variables cardinales métricas.


Las propiedades llamadas continuas tienen un número infinito de estados
imperceptiblemente diferentes el uno del otro. La mayoría de estas propiedades pertenecen al
mundo fisco. Otras propiedades continuas pertenecen al mundo psíquico (como puede ser una

Eduardo Velázquez | www.articulando.com.uy Página 45


Metodología General de la Investigación. Reglamentada. 2013

opinión), estas propiedades psíquicas no se pueden medir, no tenemos estados en estas


propiedades. Aquí ocurre un problema de inferencia en realidad, entre lo que se ve o se
escucha, y los estados reales, inclusive, dando un problema grande de fidelidad porque la
información se obtiene a partir de una declaración donde el entrevistado dice lo que tiene
ganas

La propiedad debe ser continua siempre, si no lo es, no se mide: se clasifica o se cuenta. Es lo


que ocurre cuando hace una entrevista un sociólogo, el no puede garantizar la respuesta, ni
demostrarlo. Además, con anterioridad debe haber sido establecida y reconocida una unidad
de medida.

Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la unidad
de medida y el estado en la propiedad que se está midiendo. Cuando se miden propiedades de
objetos inanimados o de ser humanos a las que se tiene acceso desde el exterior, este cotejo
lo hace el que mide. Pero cuando este acceso directo no se puede lograr, el investigador puede
recorrer tres caminos:

a) Observar conductas e inferir su estado


b) Solicitar al sujeto, con preguntas o pruebas que declare algo que permita
hacer la comparación requerida, con un proceso puramente inferencial
c) Solicitar, con preguntas o pruebas, que el sujeto coopere haciendo el mismo la
comparación

Descuidando todos estos puntos, muchos investigadores usan libremente los términos medir,
medida, medición, etc., para cualquier procedimiento de registro de estados. Este abuso no
tiene otro propósito que le anhelo de legitimación científica.

Algo que no se puede considerar una condición de medición, pero que nunca falta, es el
criterio para redondear.

Propiedades continuas no mensurables y variables ordinales o cuasi cardinales


 Los psicólogos comenzaron a plantearse el problema de medir ciertas propiedades (como
las actitudes) donde Rensis Likert introdujo las siguientes simplificaciones:

1. Se propuso dividir el continuum en un número pequeño de intervalos, marcados por


siete, y después por cinco fases.
2. Se renunció a declarar iguales estos estados, limitándose a garantizar el orden de las
frases que los dividían
3. Para garantizar que todos los sujetos compartan este orden, redujo drásticamente la
autonomía semántica de lo que se ubicaba en el continuum como un mojón: en lugar
de plantear frases con pleno sentido esperando que los sujetos las ubiquen en el
continuum, siguió planteando frases, pero pidiendo a los sujetos reaccionar frente a
cada frase con uno de varios grados diferentes de (des)aprobación (apruebo
plenamente, apruebo parcialmente, indeciso, desapruebo parcialmente, desapruebo
totalmente). La técnica ubica en el continuum estas cortas expresiones, que tienen
una autonomía semántica tan reducida que cualquier sujeto no puede más que
compartir su orden.

Eduardo Velázquez | www.articulando.com.uy Página 46


Metodología General de la Investigación. Reglamentada. 2013

En su versión simplificada la “escala de Likert”, simple y rápida, es la técnica de registro de


opiniones más conocida y usada. Se le hacen varias observaciones.

La primera observación es que reintroduce por la ventana la misma cardinalidad que declara
haber echado por la puerta; lo hace desde el titulo (valoraciones sumadas). Las valoraciones
que se suman son los números naturales que se atribuyen a los 5 niveles de desacuerdo (o
acuerdo) y que se suman para asignarle a cada sujeto un puntaje total en la escala, que
expresa su supuesto estado en la propiedad que se intenta medir.

Un segundo problema que presenta es el hecho de que una afirmación puede ser desaprobada
por motivos opuestos. Lo que conlleva a que se asigne los mismos puntajes a opiniones
ubicadas en posiciones muy diferentes a lo largo del continuum. Esto se conoce como
“curvilinearidad”, porque asignar la misma puntuación a respuestas que tienen motivos
opuestos equivale a doblar el continuum transformándolo en una herradura.

Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió que un
entrevistado no reacciona al sentido de la oración entera, sino a un solo término, más
precisamente, al objeto/sujeto designado por este término. Esto fue bautizado como “reacción
al objeto”.

El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez, por otro
reduce la fidelidad de los datos producidos. Esto es porque una vez aprendido el fácil esquema
según el cual deben contestar, tienden a considerar todas las frases restantes como una única
afirmación, que aprueban sin más, por eso podríamos encontrar columnas enteras con la
misma respuesta marcada. Esto se conoce como los “response set” (conjunto de respuestas).
Se pueden identificar cuatro motivos

1. El alto número de frases que componen cada batería, y el hecho de que en un


cuestionario se encuentran muchas baterías, haciendo que se someta al mismo
entrevistado a centeneras de frases con un mismo esquema de respuesta
prefabricada.
2. Muchos investigadores no se dan cuenta de que a menudo los acervos de
conocimiento y las esferas de intereses de los entrevistados no coinciden con los
suyos. La consecuencia es que muchos entrevistados, no teniendo conocimiento sobre
los temas que se presentan, aprueban cualquier oración porque esto es lo que los
compromete menos.
3. En muchos casos el entrevistador se presenta como enviado por un instituto, por lo
tanto los entrevistados no desdicen y contradicen nada de esos cuestionarios para no
contradecir la sabiduría académica
4. Algunos entrevistadores proporcionan su contribución a hacer los response sets.
Generalmente los entrevistadores son personas mal pagas, se les entrena poco, y
tienen que hacer mucho en poco tiempo. Esto baja la calidad de los cuestionarios.

El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la misma
batería afirmaciones de orientación opuestas, de forma que el entrevistado no pueda
declararse razonablemente de acuerdo con todas. Igual, para que esto funcione, los
entrevistadores deben ser entrenados para actuar apenas el fenómeno del response set se

Eduardo Velázquez | www.articulando.com.uy Página 47


Metodología General de la Investigación. Reglamentada. 2013

manifieste, llamando la atención del entrevistado avisándole que dos cosas que ha contestado
se contradicen.

Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar frases
individuales, pedirles elegir entre dos frases de orientación opuestas y planteadas juntas, una
frente a la otra. De esta forma es forzado a abandonar su condición pasiva y reflexionar sobre
el significado de ambas frases. Esto se llama elección forzada.

Otra técnica alternativa a la de Likert es la de Guttman, el cual adoptó un criterio radicalmente


diferente para ubicar frases con pleno sentido a lo largo del continuum: el criterio de la
acumulatividad. Se imaginó una técnica ingeniosa para ordenar a lo largo de una dimensión
conceptual un conjunto de frases con pleno sentido, es decir, con plena autonomía semántica.
El problema es que si el supuesto de acumulatividad es razonable para pruebas de destreza
físicas y tests de capacidad intelectual, nada garantiza que lo sea también para opiniones.
Guttman oculta estas diferencias trasladando sin cuestionamientos a la esfera de las opiniones
los términos relacionados a pruebas (fácil/difícil/pasar/fracasar). Una oración on es fácil o
difícil; se aprueba, no se pasa; se desaprueba, no se fracasa. El artilugio terminológico no
puede esconder el hecho de que su técnica, apropiada para cada género de habilidad,
raramente es apropiada para investigar opiniones y actitudes.

Funciona así: se presenta una serie de frases a una muestra de sujetos, solo preguntándoles si
aprueban o desaprueban cada una de ellas. Luego se organiza una forma de matriz (la cual
llamaba escalograma): en las columnas se ponen las opiniones, ordenadas de la más fácil a la
más difícil (la que tuvo más aprobaciones a más desaprobaciones). En las filas se ponen los
sujetos, ordenados de mayor a menor según la cantidad de frases aprobadas.

Para establecer si un campo semántico es escalable o no, se introdujo el coeficiente de


“reproductibilidad”, que consistía sencillamente en la proporción de respuestas “correctas”
sobre el total de respuestas. Si una escala no logra el umbral deseado de estos coeficientes, no
se saca una conclusión general de que el supuesto de acumulatividad no es razonable cuando
se trata de opiniones, ni la conclusión especifica de que no era razonable con respecto a aquel
particular campo semántico. Por el contrario, el propuso dos sugerencias alternativas y
paralelas: a) sacar de la muestra a los sujetos culpables de demasiados errores, ya que habían
contestado sin tener cuidado; b) eliminar de la escala las frases que causaban el número más
alto de errores.

La primera sugerencia revela la actitud del autor: si el mundo no se adapta a mis supuestos,
hay que cambiar el mundo y no los supuestos. La segunda es ética y científicamente legitima:
el investigador tiene derecho y deber de mejorar sus instrumentos, solo que en el caso
específico tiene graves consecuencias técnicas.

Como subrayan Guttman, su escala es una técnica meramente ordinal: lo que conlleva a que
los únicos valores característicos que se pueden aplicar a variables constituidas con ella son la
moda y la mediana, y además para analizar las relaciones de estas variables con otras solo se
pueden aplicar coeficientes ordinales.

Eduardo Velázquez | www.articulando.com.uy Página 48


Metodología General de la Investigación. Reglamentada. 2013

Lo mismo se puede decir para las variables construidas con la escala de Likert. Por otro lado,
hay que enfrentarse al hecho de que muchos analistas usan sin cuestionamiento técnicas
cardinales en estas variables, porque con esas técnicas pueden fácilmente efectuar un análisis
multivariable. Pero esta práctica va a producir resultados poco confiables porque las
posiciones a lo largo del continuum no son equidistantes, y porque las frecuencias están
habitualmente mal distribuidas.

Hay que examinar previamente las distribuciones de todas las variables a las que las van a
aplicar, y solo aplicarlas a las variables que tengan una distribución bastante equilibrada.

La drástica reducción de la autonomía semántica de las categorías intermedias permite


eliminar cualquier duda sobre el hecho de que el orden de esas categorías es compartido por
todos los sujetos (nadie puede pensar que 8 es menos que 7), y adoptar un razonable supuesto
de que las cifras del intervalo y las casillas a lo largo del segmento sean percibidas como
equidistantes.

Algo más evidente es la diferencia gnoseológica, como pasa con todas las propiedades
psíquicas, el investigador no tiene acceso directo a los estados individuales. El hecho de que
sea el mismo sujeto que va a valorar su estado en cada propiedad que el investigador le
presente, y que exprese esa valoración con un instrumento al cual no está acostumbrado,
conlleva varias consecuencias gnoseológicas bajo la forma de causas de infidelidad:

a) Cada sujeto puede concebir de manera diferente del investigador la propiedad en


la que debe valorar su estado
b) Cada sujeto puede equivocarse de buena fe acerca de su estado
c) Cada sujeto puede alterar conscientemente su estado
d) Cada sujeto puede entender mal el mecanismo o funcionamiento de una escala
e) cada sujeto puede comprender en lo esencial el funcionamiento de una escala
pero manifestar la tendencia a no usarla en modo sesgado (por ejemplo,
atribuyendo todos puntajes bajos o altos).

Solo al último tipo de distorsión se puede aplicar un remedio, pero en situaciones particulares.
Para las otras no hay nada que hacer.

Presentamos tres escalas de esta familia. La más antigua es la “diferencial semántica”, donde
se presentan escalas, donde cada escala está formada por varias casillas y en ambos extremos
dos adjetivos opuestos (caliente: _: _:_:_ :_:_ :_: frio) donde se pide valorar.

Otra similar a la anterior, es presentarle al sujeto una columna con diez u once casillas, donde
solo la más alta o la más baja son interpretadas. Como el sujeto era quien “anclaba” la escala al
establecer la posición de su estado entre dos extremos, fue llamada “autoanclante”.

La tercera y más importante es la evolución de la autoanclante, aprovechando la imagen de un


termómetro, poniendo 100 al máximo y 0 al mínimo de simpatía o aprobación por cualquier
objeto que se debe valorar. Fue bautizada termómetro del sentimiento. El 50% es neutral

Eduardo Velázquez | www.articulando.com.uy Página 49


Metodología General de la Investigación. Reglamentada. 2013

Variables cardinales derivadas


Estas están en categoría aparte porque no se obtienen con un registro directo, sino con una
división entre dos variables cardinales directamente registradas. El cociente entre dos
variables cardinales produce otra variable cardinal que no se puede definir ni natural ni
métrica.

Un ejemplo de variable derivada es: porcentaje de votos de un partido sobre el total de votos
válidos, etc.

Eduardo Velázquez | www.articulando.com.uy Página 50


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 9: indicadores, validez, construcción de índices. Marradi


¿Por qué indicadores?
A veces la naturaleza de la propiedad bajo examen no permite imaginar una definición
operativa directa, otras veces esta se puede imaginar, pero nuestro sentido común, nuestros
conocimientos de la situación, experiencia, entre otros, nos dicen que esa definición operativa
sería inadecuada para registrar la propiedad en cuestión.

Definamos algunos criterios generales:

a) No se puede imaginar una definición operativa cuando


1. La unidad de análisis es algo que no se puede interrogar
2. Los estados de la propiedad no se pueden investigar directamente
b) Una definición operativa directa se puede imaginar, pero no es confiable cuando la
unidad de análisis es un ser humano y la propiedad investigada:
1. Tiene respuestas socialmente deseables
2. Es algo familiar al científico pero no al lego
3. Es algo que la moral en la comunidad del entrevistado considera reprobable

El hecho de que no se pueda dar una definición operativa directa no conlleva una renuncia a
recoger información sobre esa propiedad, para hacerlo, hay que buscar una o más
propiedades que

a) Admitan definiciones operativas directas que sean aceptables


b) Tengan una fuerte relación semántica con la propiedad que interesa

Estas propiedades se llaman “indicadores” de la propiedad X, y la relación que se establece


entre ellos y la propiedad X se llama “relación de indicación”.

La naturaleza de los indicadores en las ciencias sociales


La naturaleza está estrechamente vinculada con la de los vectores-columna de la matriz de
investigación. Por lo tanto

a) Solo se pueden concebir como indicadores conceptos que se refieren a propiedades


b) Estas propiedades tienen que presentar estados en todos los ejemplares de la unidad
de análisis de investigación.

Solo se pueden ser elegidos como indicadores conceptos que se refieren a propiedades, que
sugieran una definición operativa directa y cumplan con el requisito (b) señalado antes. Estas
son condiciones necesarias pero no suficientes: la condición esencial es que el investigador
perciba una estricta relación semántica entre el indicador y el concepto indicado.

Aspectos indicativos y aspectos extraños: la doble pluralidad de las relaciones entre


conceptos e indicadores
Muchas veces el mismo concepto A, directamente operativizable, es elegido por diferentes
autores (o inclusive por el mismo autor en situaciones diferentes) como indicador de dos o
más conceptos no operativizables distintos. Esto deriva del hecho de que la intensión de este
concepto A varía de sujeto a sujeto y también varía en el tiempo para cada sujeto.

Eduardo Velázquez | www.articulando.com.uy Página 51


Metodología General de la Investigación. Reglamentada. 2013

Cada investigador puede considerar central un aspecto diferente, lo cual podríamos llamar
“aspecto indicativo”. Pueden haber otros aspectos que ignora o que considera no importantes,
los cuales podríamos llamar aspectos extraños. Todos estos puntos ayudan a influir en, por
ejemplo, la manera en que una pregunta será entendida por los entrevistados. La minimización
de los aspectos extraños tiene que ser la primera consideración para elegir indicadores, y dado
no que no es posible encontrar un indicador que este alejado a esto, un investigador deberá
tenerlos muy en cuenta a la hora de interpretar los datos.

A esa pluralidad “desde abajo” (en el sentido de que un concepto puede ser elegido como
indicador de otros varios conceptos) le corresponde una pluralidad “desde arriba” en el
sentido de que para cada concepto que interesa, pero que no sugiere directamente una
definición operativa, cabe elegir más de un indicador.

Para posibilitar cualquier registro de informaciones empíricas semánticamente relevantes para


un concepto, cabe recurrir a conceptos mucho más específicos y acotados que conduzcan
directamente a esta información. Por esta razón se habló de un pasaje “desde arriba” del
concepto de sus indicadores, y de un pasaje “desde abajo” de cada indicador elegido al
concepto relativo. Y ya que los aspectos de la intensión de un concepto general pueden ser
mucho más, para no reducir demasiado la generalidad de este concepto, y al fin de cuentas
cambiarlo, es necesario buscar indicadores para muchos aspectos; lo ideal sería encontrar
indicadores para cada aspecto relativante de su intensión.

Esto es lo que se entiende de pluralidad desde arriba de la relación de indicadores. De una


forma rápida, la doble pluralidad puede sintetizarse así: cada concepto no sugiere
directamente una definición operativa, necesita una pluralidad de indicadores, y cada
concepto que puede ser directamente operativizado puede ser elegido como indicador de una
pluralidad de otros conceptos.

Una combinación particular de pluralidades desde arriba y desde abajo se encuentra a menudo
en el “análisis secundario”, esto es el hecho de que muchos investigadores, para profundizar el
problema, en lugar de recolectar directamente datos, analizan aquellos ya registrados por
otros investigadores y que encuentran en archivos.

Claramente, cada vez que analizamos una investigación que no es nuestra, estamos limitados a
las propiedades que interesaron al autor original, por lo tanto, tal vez alguna cosa que interese
no está en la matriz.

La validez como juicio acerca de la proximidad semántica entre un concepto y su


indicador
La validez es una propiedad del concepto I, en cuanto posible indicador del concepto C en un
ámbito espacio-temporal determinado con una unidad de análisis dada. El grado en que el
concepto I posee esta propiedad no se puede medir, ni averiguar de ningún modo objetivo. El
grado solo puede ser evaluado con criterios semánticos por el investigador, el equipo de
investigadores, la comunidad de investigadores de una disciplina.

Este juicio se debería dar teniendo en cuenta los conocimientos del problema y de la población
estudiada, los resultados de investigaciones previas, la literatura del tema, etc. Una vez

Eduardo Velázquez | www.articulando.com.uy Página 52


Metodología General de la Investigación. Reglamentada. 2013

registrados los datos, el juicio debe tener en cuenta la fuerza y la forma de la relación de
aquella variable con otras.

Todas las otras formas de control de validez se basan en coeficientes de asociación entre el
vector que brinda los datos del indicador en cuestión y otros vectores de la matriz. La fiabilidad
de los datos también se controla mediante correlación de dos o más vectores. Esta analogía ha
conllevado una lamentable confusión entre el concepto de fiabilidad y el concepto de validez.

Entre las más difundidas técnicas de validación, la validación concomitante o simultánea se


calcula coeficientes de asociación con otros supuestos indicadores del mismo concepto. La
validación predictiva en la que se controla si, sobre la base de los puntajes de un indicador,
somos capaces de prever correctamente los resultados de una prueba sucesiva. La más
interesante es la validación de constructo en la que el supuesto indicador no se asocia con
indicadores del mismo concepto sino con variables que deberá tener una relación empírica
fuerte (positiva o negativa) con el concepto a indicar. El indicador es considerado válido si la
relación es aquella que se esperaba.

La construcción de índices tipológicos con variables categoriales y ordinales


La intensión de un concepto de propiedad tiene varios aspectos, y se necesita encontrar
indicadores para los aspectos más importantes. Naturalmente, las informaciones recogidas
tienen que ser sintetizadas para construir el concepto que interesa. La operación con la que se
realiza esta síntesis se llama “construcción de un índice”, es la tarea más delicada de la
investigación social que sigue una aproximación estándar.

El criterio de construcción de los índices se puede establecer en abstracto a la hora de diseñar


la investigación; pero se realiza cuando los datos sobre los indicadores están recolectados y
tengamos las variables correspondientes en la matriz. El procedimiento es diferente según se
traten las variables como cardinales o no.

Si no las consideramos cardinales, se atribuye plena autonomía semántica a cada categoría de


las variables que van a formar el índice. De esto se sigue que la herramienta para realizar la
síntesis es la tabla bivariable, en la que cada categoría de las variables involucradas
representan una fila o una columna de la tabla, y en cada celda hay un tipo, es decir, la
combinación de una categoría de la variable en las filas de la tabla con una categoría de la
variable en las columnas. El índice así construido se denomina tipológico.

La construcción de índices aditivos con variables cardinales y cuasi cardinales


Construir índices con variables cardinales o cuasi cardinales es más simple, y eso es por dos
motivos. El primero es la posibilidad de realizar con plena legitimidad operaciones
matemáticas con los códigos números que representan los estados en estas variables. El
segundo motivo es la autonomía semántica reducida o nula de las categorías.

Las operaciones matemáticas necesarias para construir índices son mucho más sencillas que
las que se usan en el propio análisis estadístico. A veces son simples sumas de puntajes y por
eso este tipo de índices de denominan “aditivos”. Este nivel de simplicidad solo se puede
alcanzar si se satisfacen cuatro condiciones: una factual, una numérica y dos semánticas.

Eduardo Velázquez | www.articulando.com.uy Página 53


Metodología General de la Investigación. Reglamentada. 2013

La factual es que no falten datos en uno o más indicadores: en estas circunstancias el putaje
final de casa caso en el índice debe ser el promedio y no la suma de los puntajes válidos.

La condición numérica es que todas las variables que se suman tengan la misma extensión de
escala, o al menos una extensión muy parecida.

Con respecto a la condición semántica: una tiene que ver con la inversión de la tabla de puntos
(más en uno significa menos en el otro). La segunda es más compleja: hasta ahora se
presentaron operaciones (estandarización, normalización, etc.) que tenían el fin de hacer
efectivamente equivalentes los indicadores antes de combinarlos en un índice, en el supuesto
de que el investigador los considerara a todos igualmente válidos. Pero puede pasar que un
investigador considere algunos más validos que otros. Si tiene bueno motivos para ello, tiene
que incorporar esta convicción en la formación del índice, sin temor a no ser objetivo.

Para ponderar la contribución de cada indicador a la suma que va a proporcionar cada caso su
puntaje en el índice, el investigador tiene dos caminos. Puede guiarse por sus valoraciones
semánticas, multiplicando los puntajes en los indicadores que considera valiosos por un
coeficiente mayor a 1, y los indicadores que considera menos valiosos por un coeficiente
menor a 1. O puede aprovechar las posibilidades que ofrece la matriz de los datos, sometiendo
la canasta de las variables que operativizan posibles indicadores del concepto que interesa a
un análisis de componentes principales.

Ahora basta decir que el análisis de componentes principales tiene tres funciones, a las que
corresponden tres fases en el procedimiento

1. Seleccionar en la canasta inicial de posibles indicadores los que resultan tener una
estricta relación empírica con los otros, y por lo tanto se puede suponer que tengan
una apreciable relación semántica con el concepto que interesa
2. Estimar la fuerza de esta relación semántica (es decir la validez) entre el concepto y
cada uno de los indicadores seleccionados.
3. Proporcionar un coeficiente para ponderar los puntajes de cada indicador teniendo en
cuenta las posibles superposiciones semánticas, es decir, el hecho de que dos o más
indicadores pueden representar aspectos muy cercanos de la intensión del concepto.

En este caso, el índice final no es otra cosa que la suma de los puntajes de cada individuo en
los indicadores seleccionados en la fase 1; antes de sumarlos, los puntajes son multiplicados
por el correspondiente coeficiente calculado en la fase 3.

Eduardo Velázquez | www.articulando.com.uy Página 54


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 10: la observación. Marradi


Introducción
Es el acto y efecto de observar, que a su vez significa mirar o examinar con atención. Se trata
de una actividad con presencia constante y recurrente en la vida cotidiana.

En el ámbito de la ciencia, la observación es el modo de establecer algún tipo de contacto


empírico con los objetos/sujetos/situaciones de interés a los fines de su descripción,
explicación, comprensión.

La observación la vida cotidiana y en la ciencia


La distinción entre observación científica y común se entienden recurriendo a las nociones de
ruptura o de continuidad.

La idea de ruptura destaca el quiebre entre ambos mundos, y se inscribe en el marco de una
concepción que le asigna a la ciencia un lugar privilegiado, inmune a las contaminaciones del
conocimiento ordinario que caracteriza a la vida cotidiana.

En tiempos más recientes se ha tendido a favorecer la idea de continuidad entre ciencia y vida
cotidiana, y en ese sentido se ha destacado que las competencias observacionales
desarrolladas en la vida social, junto con esfuerzo reflexivo y crítico, constituye un fundamento
de notable no solo para aprender y comprender el significado de la observación científica, sino
también para llevarla a cabo de manera apropiada. La observación común y generalizada
puede transformarse en una poderosa herramienta de investigación social y técnica científica.

Distintas formas de observación científica


Todos los métodos de investigación científica son en algún sentido observacionales. Una
distinción entre las formas de observación se puede establecer a partir de la coincidencia (o
no) entre el sujeto observador y el objeto/sujeto observado. Cuando ambos coinciden se
habla de una autoobservación, que será más o menos introspectiva según el grado de
profundidad del análisis.

Suele distinguirse entre observación directa e indirecta. La última es cuando se adquiere


conocimiento del objeto a través de observaciones previas realizadas por otras personas, por
ejemplo, cuando recurre a datos secundarios. La primera es cuando el investigador se pone en
contacto directo con el fenómeno de interés, y esto se puede hacer de manera controlada (a
través de experimentos) o no controlada, cuando se observa la situación en su ambiente
natural, sin alterar el contexto artificialmente. Tambien es frecuente hablar de controlada
como la que se hace en un laboratorio, y no controlada a la que se hace como observación de
campo. Esta última puede ser participante o no participante, según se observe el fenómeno
“desde adentro” o “desde afuera”.

Otras formas de definir la observación incluyen a la estructurada o no estructurada, según el


grado de sistematicidad y delimitación previda de que/quien, como y cuando será observado;
retrospectiva, cuando se investigan fenómenos del pasado, y mediada o no mediada, según se
apele a instrumentos técnicos de observación (telescopio, etc.) o simplemente a los sentidos,
sin la ayuda de tales dispositivos. En este sentido, se puede distinguir entre los instrumentos

Eduardo Velázquez | www.articulando.com.uy Página 55


Metodología General de la Investigación. Reglamentada. 2013

que amplían la capacidad de los sentidos, y en un modo más general, aquellos que hacen
posible acceder a través de ellos a la observación de un espacio/objeto dado.

Gold profundizó en la caracterización de los tipos ideales de roles de trabajo de campo que el
cientista social puede adoptar a partir de la observación y la participación. Su tipología se basa
en dos criterios: el grado de participación y el grado de revelación de la actividad de
observación. De aquí surgen los 4 tipos teóricos: participante completo, participante como
observador, observador como participante y observador completo.

En el caso del participante completo, la verdadera identidad y propósito del investigador se


mantienen ocultos, interactuará de manera más natural, aprendiendo roles y tareas cotidianas
de los observados como si fuera uno de ellos. Es análogo al observador encubierto.

El participante como observador es un rol de trabajo de campo con características similares a


la anterior, pero se diferencia en tanto que investigador como sujeto observado son
consciente de que su relación es de campo. Establece relaciones con informantes a lo largo del
tiempo y tiene la oportunidad de participar de la situación investigada.

El observador como participante es el típico rol de quien limita el trabajo de campo a una
entrevista. La actividad de observación es más bien formal, ya que no se dan las condiciones
para una observación y participación informales a lo largo del tiempo.

El observador completo es aquel que no interactúa socialmente con los sujetos investigados.
Se limita a observar intentando que su actividad pase inadvertida.

Se plantea que hay dinamismo y conexión entre estos 4 y no caminan por separado, inclusive a
lo largo de un mismo estudio se pueden adoptar todos. Inclusive, el rol no se da solo por el
investigador, ya que este es también es observado.

En vez de pensar en tipos cerrados de observación y participación, muchos autores favorecen


la idea de un continuum de diversas combinaciones posibles

La observación participante
Consiste en ver el fenómeno estudiado en su ambiente natural, sin manipularlo y presenciado
de forma directa. Conlleva el involucramiento del investigador en una variedad de actividades
y en un período prolongado de tiempo.

Se distingue entre dos modos: pasivo y activo. Los modos pasivos se observación implica el
mirar y el escuchar, mientras que el activo es el conversar. Los modos pasivos de participación
son el estar y el hacer; el modo activo es el compartir. A partir de estas observaciones, se
distingue entre la observación participante en un sentido débil (modo pasivo) y fuerte (modo
activo). Autores están más de acuerdo con un modo u otro.

La observación participante también puede adquirir diferentes setnidos según cual sea la
relación de membresía del investigador con respecto al grupo que estudia; el observador
puede ser miembro (nativo o no nativo), puede hacerse pasar por un miembro, o desarrollar
un rol de observador paticipante en el grupo en el sentido del “participante como observador”.

Eduardo Velázquez | www.articulando.com.uy Página 56


Metodología General de la Investigación. Reglamentada. 2013

La observación de la propia comunidad exige un trabajo de extrañamiento/distanciamiento


que permita desnaturalizar prácticas. La tradición de las ciencias sociales ha tendido a pensar
al observador como un “extraño que está dentro” de la comunidad, que adquiere ciertas
competencias sociales necesarias para participar en ella, pero uqe no debe hacer propias las
ideas y valores característicos de ésta. En otras palabras, no debe ser un miembro activo ni
convertirse en uno.

Se han discutido los límites de la interpretación de una cultura extraña sin que medien
procesos de resocialización en el juego del lenguaje que esa cultura implica. Se han puesto en
cuestión la posibilidad de “traducción” de una cultura a los términos de otra partir de una
racionalidad que le es ajena. La supuesta “objetividad” puede convertirse en un obstáculo para
acceder al sentido de ciertas prácticas sociales y culturales.

Igualmente, la visión canónica ha tendido a favorecer las ventajas del observador profesional
no nativo.

Las diferencias entre el rol técnico del observador participante y el papel del profano de
participación típico de un miembro nativo del grupo son el contraste de propósitos, los modos
de atención, los ángulos de observación, la experiencia, introspección y registro.

Cuando el observador se hace pasar por miembro (observación encubierta), si bien se tiende a
desaconsejar esta forma de intervención por razones éticas, hay casos en que podría ser la
única forma de conocer un fenómeno sin que la presencia incida en la situación.

En la actualidad, la observación participante suele utilizarse en el marco de una investigación


que se caracteriza por la presencia física del investigador en el terreno; es alguien que se une
temporalmente a un grupo con fines científicos y que no oculta su rol.

Este sentido actual de la observación participante implica la comprensión a través de un


acceso privilegiado a los significados que los actores construyen (y le asignan) a su mundo.

Uno de la observación participante en la investigación social. Ventajas y límites


En un sentido genérico, ha tendido a destacarse la utilidad de la observación participante para
realizar estudios exploratorios y descriptivos, y su muy limitada capacidad como instrumento
de la investigación explicativa, ya sea que se trate de construir teorías o de poner a prueba
hipótesis científicas. Sin embargo, esta visión que restringe el uso de la observación
participante a fases preparatorias (como mera disparadora de hipótesis que deberían dar lugar
a estudios sucesivos más acordes a la lógica de la contrastación) ha sido desafiada por muchos
científicos sociales.

Entre las principales ventajas de la observación participante, destacamos

a) Permite acceder a las situaciones investigadas en toda su complejidad y en el


momento en que los acontecimientos suceden, sin artificios ni simplificaciones.
b) Permite acercarse al punto de vista de los actores investigados
c) Es flexible, posibilitando de este modo redefinir aspectos significativos a lo largo del
proceso de investigación.

Eduardo Velázquez | www.articulando.com.uy Página 57


Metodología General de la Investigación. Reglamentada. 2013

Entre sus límites señala que hay importantes cuestiones de interés para las ciencias sociales
que no son pasibles de observación directa, o al menos observación participante. También las
limitaciones para fenómenos que tienen su raíz psicológica profunda, y que requieren métodos
indirectos. También se destaca como negativo el tiempo que lleva la observación participante.

Pero las ventajas o límites deben entenderse como en relación a otros métodos
observacionales y el objeto de interés de una investigación.

La reactividad es la tendencia de los actores a modificar su comportamiento habitual como


consecuencia de ser observados. La idea es que la observación participante genere la menor
reactividad posible.

Para maximizar las ventajas y restringir los límites de la observación participante,


especialmente en términos de fiabilidad, se suele sugerir una serie de estrategias y
recomendaciones:

a) Analizar críticamente la información provista por informantes clave, prestando


especial atención a su estatus en el marco de la situación/comunidad/grupo
observado.
b) Llevar un registro de lo que se percibe como efecto reactivo, en particular lo que se
conoce como notas metodológicas
c) Realizar cruces y controles con los resultados de observación realizados por otros
miembros del equipo, y complementar la observación con entrevistas y documentos
de distinta naturaleza.

Las críticas más frecuentes remiten a la fiabilidad y validez. Autores afirman que los problemas
de fiabilidad y validez tienden a solucionarse si se contrastan las perspectivas de varios
investigadores.

El registro de la información en la observación participante


Se recurre a lo que se conoce como notas de campo. Bajo este rotulo, hay distintas
modalidades de registro.

La forma más común de distinción del registro informacional escrito involucra las notas
observacionales, teóricas y metodológicas, también llamadas sustantivas, analíticas y
metodológicas. Las primeras son el registro descriptivo de lo observado. En ellas es importante
rescatar el lenguaje nativo, lo espontáneo y limitando las interpretaciones. Como todo lleva un
ejercicio analítico, se realizan notas teóricas o analíticas Estos son intentos preliminares del
observador para dar sentido a lo que observa. Las notas metodológicas son ap untes
descriptivos acerca del investigador y el proceso de investigación, por ejemplo, las decisiones
que toma en el campo.

Otro autor distingue entre notas condensadas, que se realizan mientras se lleva a cabo la
observación, y notas expandidas, que se realizan fuera del campo y que son más detalladas.

Eduardo Velázquez | www.articulando.com.uy Página 58


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 11: el sondeo. Marradi

Introducción
El sondeo o encuesta es un método científico de recolección de datos, a través de la utilización
de cuestionarios estandarizados, administrados por entrevistadores especialmente entrenados
o distribuidos para su autoadministración a una muestra.

Se trata de una técnica que permite obtener datos sobre actitudes, creencias, opiniones, etc.
Se caracteriza por su adecuación para relevar muchoas propiedades referidas a muchos
individuos.

El principal atractivo de esta técnica recide en su potencial predictivo, al permitir el registro de


alguna propiedad de una población, con un margen de error muestral calculable, a partir del
análisis de un fragmento de ésta. Igual los resultados siempre son aproximaciones y no
certezas.

El sondeo es falible, tiene limitaciones y en el proceso de su aplicación se acumulan errores. La


minimización de esto depende de la toma de decisiones adecuada y de controles permantenes
en todas las etapas de su aplicación.

Supuestos
Se señalan tres supuestos inverificables de las cuentas de opinión pública:

a) Todos los individuos tienen una opinión


b) Todos los individuos se cuestionan sobre los temas que se les pregunta
c) Todas las opiniones tienen la misma incidencia social

A fin de minimizar los riesgos de falta de veracidad en las respuestas, las encuestas tienden a
ser anónimas y garantizando la confidencialidad de los datos.

Limitaciones
Algunas remiten a decisiones y estaregias investigativas previas a su aplicación: a) la validez de
los indicadores y la confiabilidad de los instrumentos de registro y b) las limitaciones de las
muestras utilizadas. La primera se intenta controlar, por un lado, testeando los indicadores
antes de aceptarlos como válidos, y por otro, sometiendo el cuestionario al control de una
prueba piloto, mientras que la validez de la muestra depende de las técnicas de selección que
se utilicen.

Otras limitaciones operan durante el trabajo de campo, donde se generan la mayor parte de
los errores que no se vinculan al diseño de los instrumentos sino a su aplicación. La mayoría se
pueden minimizar a través de un buen entrenamiento de los encuestadores y por medio de la
supervisión y control de su trabajo.

Una limitación muy importante se produce cuando los encuestados se niegan a responder,
debido a que una tasa de no respuesta muy alta puede vulnerar el cumplimiento de la muestra
y sesgar el resultado afectando la calidad de los datos. A fin de minimizar esto, se pueden
implementar estrategias de motivación y sensibilización en los encuestados, asi como
notificarlos con anterioridad sobre la visita del encuestador. Pero la posibilidad de llevar a cabo

Eduardo Velázquez | www.articulando.com.uy Página 59


Metodología General de la Investigación. Reglamentada. 2013

estas medidas depende en gran parte del tipo de población seleccionada y los recursos con
que se cuente.

Tipos de encuesta según su abordaje


Podemos clasificarlas como

 Con participación del encuestador


o Cara a cara o presenciales
o telefónicas
 Sin participación del encuestador (auto administradas)
o Telefónica automatizada
o Correo tradicional
o Fax
o Correo electrónico o sitio web

Encuestas cara a cara


La presencia del encuestador permite aclarar dudas, testear productos y mostrar piezas
publicitarias u otros materiales. Muchas veces esto permite presentar un cuestionario más
largo, más aún si son en la casa del entrevistado. La principal ventaja de la domiciliaria es
introducir un elemento de azar en el diseño de la muestra, a través del sorteo de unidades
especiales dentro de un mapa de la zona a encuestar, su principal desventaja es que resulta ser
más costosa.

El método coincidental (abordaje en la vía pública) resulta eficiente cuando se estudia un


segmento poblacional que puede ser detectado por su concentración espacial (por ejemplo,
seguidores de un club de futbol). Las encuestas cara a cara resultan más útiles para segmetnos
de bajos ingresos, por su falta de teléfono y porque producen mayor tasa de respuesta.

Es importante tener en cuenta que le lugar donde se aborda al entrevistado puede influenciar
la calidad de los datos.

Encuestas telefónicas
Se necesita de tecnología informática que permite el marcado de números al azar y el
procesamiento de datos inmediatamente completado el trabajo de campo. La principal
ventaja es el menor costo y la rapidez. Sus desventajas: imposibilidad de alcanzar a la
población sin teléfono, la restricción a un cuestionario corto y la imposibilidad de utilizar
material visual

Encuestas auto administradas (sin encuestador)


Se selecciona una muestra potencial y se les hace llegar un cuestionario. La respuesta o
devolución del cuestionario es parte de la voluntad del sujeto. Esto se traduce en una baja tasa
de respuesta. Se utilizan técnicas que van desde premios hasta compartir los resultados del
estudio para que la tasa sea más alta.

En estas encuestas, el cuestionario adquiere ciertas características, por ejemplo, es de poca


extensión y con consignas muy claras. A veces se adjuntan imágenes.

Eduardo Velázquez | www.articulando.com.uy Página 60


Metodología General de la Investigación. Reglamentada. 2013

Repartirlas por mail o por un sitio es más económico, pero el tener internet puede afectar
también la muestra.

Estudios comparados
Consisten en aplicar encuestas en diferentes países o culturas y replicarlas sistemáticamente a
intervalos regulares. Constituyen bancos de datos importantes por su alcance y sistematicidad.

El principal problema que presentan estos estudios es la comparabilidad de los datos, cuando
incluyen realidades culturales, sociales o económicas muy heterogéneas. Se recomienda que
se incluyan componentes cualitativos en los diseños:

- Realizar ajustes en términos culturales


- Buscar similitudes en los países seleccionados respecto a características
institucionales que afectan los temas centrales del estudio
- La presencia de un investigador en cada país con manejo de idioma,
costumbres, etc.
- Analizar primero cada realidad nacional y luego hacer la comparación
- Recolectar los datos en diferentes momentos para neutralizar el efecto de
eventos nacionales.

Estudios longitudinales
La estrategia metodológica del Panel reside en la utilización de la muestra. El cuestionario se
aplica a una misma muestra en diferentes ocasiones a lo largo del tiempo, de modo que
resulta particularmente útil para comprobar modificaciones en las actitudes y conductas como
efecto de la participación de un estímulo o factor determinado. Uno de los principales
problemas del Panel se vincula con la mortalidad de la muestra, en la medida de que puede
perderse el contacto con algunos individuos de un registro a otro.

El cuestionario
Es el instrumento de recolección de datos utilizado en las encuestas. No es un simple listado
de preguntas, por el contrario, tiene una lógica que hay que respetar. La idea general es que
las primeras baterías de preguntas no resulten demasiado intrusivas ni requieran respuestas
comprometidas, de manera de generar confianza. Los temas que exigen mayor compromiso o
intimidad deben ubicarse al centro de la entrevista, para terminar con preguntas fáciles que
den lugar a la despedida en un clima de amabilidad.

La duración de la entrevista no debe ser excesiva para que el encuestado pueda mantener la
atención.

Según su grado de estructuración, los cuestionarios se clasifican en estructurados,


semiestructurados y no estructurados. En los primeros tienden a predominar las preguntas
que presentan un menú cerrado de respuestas pre codificadas (preguntas cerradas). Estas
otorgan muy poca libertad para dar respuestas.

El semi estructurado es similar al anterior pero incorpora algunas preguntas abiertas, donde se
puede elaborar con libertad una respuesta.

Eduardo Velázquez | www.articulando.com.uy Página 61


Metodología General de la Investigación. Reglamentada. 2013

Los no estructurados tienen la mayoría de las preguntas abiertas y se tiene total libertad para
elaborar respuestas.

Formulario de las preguntas


La primera clasificación de preguntas se dividen en abiertas y cerradas. En las cerradas se
pueden presentar las respuestas posibles (someter al entrevistado a elegir).

El diseño para las preguntas cerradas estará condicionado por el grado de conocimiento del
investigador sobre la material, el nivel de heterogeneidad de la muestra y la amplitud en la
dispersión de las respuestas que se esté dispuesto a tolerar.

La pregunta que presenta menor alternativa de respuesta es la dicotómica, ya que las


respuestas son solo dos (si/no o similar). Tiende a dividir la muestra en dos grupos de
posiciones.

Cuando la pregunta tiene más de dos alternativas, pero que le entrevistado elige una sola, se
denomina alternativas múltiples. Pueden ser categoriales u ordinales, que generalmente
asumen formas escalares. Las escalas, a su vez, pueden ser verbales o numéricas. Cuando en
este tipo se puede elegir más de una respuesta, adopta el nombre de “respuestas múltiples”.

Cuando el conjunto de respuestas posibles es finito, conocido y no demasiado grande se puede


formular una pregunta abierta.

Cuando una pregunta cerrada tiene un numero grande de categorías de respuesta, se puede
utilizar una “tarjeta” (instrumento que ayuda a guiar al encuestado) donde figuran las
alternativas de respuesta.

El conjunto de respuestas de una pregunta cerrada contribuye a una clasificación y debe


cumplir: todas las respuestas son mutuamente excluyentes y conjuntamente exhaustivas, para
cumplir con esto último, toda pregunta llevará una respuesta residual (otra)y una categoría
para registrar la falta de respuesta (ns/nc).

Otra estrategia es la formulación de frases. Consiste en redactar un conjunto de frases que


expresan diferentes posiciones respecto a un tema y solicitar que el entrevistado manifieste su
posición sobre ellas. Esta técnica tiende a usarse cuando se indagan temas controversiales o
conflictivos, su ventaja es que las frases son presentadas como dichas por otras personas y
generan en el respondente una sensación de menor compromiso al considerarse formando
parte de algún grupo.

Cuando se quiere indagar sobre preferencias, se puede presentar un listado donde se ordene
según algún criterio. Otro tipo de preguntas llamadas filtro o de pase son aquellas cuyas
respuestas reorienta a diferentes segmentos de la muestra en las preguntas del cuestionario.

Tanto el orden de las preguntas en el cuestionario como el orden que adopten las respuestas
al interior de cada pregunta cerrada pueden influir en los resultados. A fin de controlar esto se
recomienda realizar una prueba piloto del cuestionario y alterar la presentación de las
respuestas entre los encuestados, en particular cuando tienen muchas alternativas. De este
modo, se minimizan los efectos de respuestas sistemáticas.

Eduardo Velázquez | www.articulando.com.uy Página 62


Metodología General de la Investigación. Reglamentada. 2013

A la hora de diseñar, es necesario tener en cuenta que la influencia de las preguntas sobre las
respuestas está condicionada en gran parte por el lenguaje. Se da por supuesto que se
reconoce el sentido de la pregunta tal como fue formulada (supuesto de interpretabilidad)
pero esto no es siempre así. El lenguaje conlleva intención y perspectiva que no siempre son
compartidas. El interpelado reconstruye el sentido de la pregunta, y su respuesta estará
asociada a esto.

Muchas palabras a veces tienen una gran ambigüedad e imprecisión y pueden adquirir
sentidos diferentes para los encuestados. También puede ocurrir que se utilice un lenguaje
técnico que muchos no comprendan. Se vuelve importante en el diseño del cuestionario,
minimizar la utilización de palabras y expresiones vagas.

Eduardo Velázquez | www.articulando.com.uy Página 63


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 12: la entrevista en profundidad. Marradi


Introducción
En las ciencias sociales, la entrevista se refiera a una forma especial de encuentro: una
conversación a la que se recurre con el fin de recolectar determinado tipo de información en el
marco de una investigación. Se trata de una técnica muy utilizada.

En la tradición antropológica, la entrevista ha sido vista como un complemento en la


observación de campo, mientras que en la sociología y otras ciencias sociales, se le ha dado un
lugar central y valor científico por sí misma.

En la vida cotidiana estamos permanentemente involucrados en prácticas conversacionales


que implican el intercambio de información. No solo son conversaciones formales, existen, por
ejemplo, otras más formalizadas como las entrevistas profesionales, que pueden ser las
consultas médicas, terapia, etc. El entrevista de investigación social podría concebirse como
una forma especial de conversación profesional. Se diferencia de la psicoterapia en que su
objetivo primario es conocer y no, en cambio, modificar actitudes o conductas del
entrevistado.

Podemos definir la entrevista en profundidad como una forma especial de conversación entre
dos personas, dirigida y registrada por el investigador con el propósito de favorecer la
producción de un discurso conversacional continuo y con cierta línea argumental por parte del
entrevistado, acerca de un tema de interés definido en el marco de la investigación.

Tipos de entrevista
Se propone una tipología para clasificarla basada en dos criterios: la presencia (o no) de un
contacto visual directo entre entrevistador y entrevistado, y el grado de libertad concedido a
los actores en la situación de entrevista, ya sea al preguntar o al responder.

Burgues afirma que el grado de menor estructuración se da en el marco de las conversaciones


espontáneas surgidas como complemento de la observación de campo. En el otro extremo
están las entrevistas estructuradas típicas de las encuestas o sondeos.

La entrevista puede ser estructurada, semiestructurada y no estructurada. Igualmente, no


existe aún una terminología unificada para designarlas. En el caso de las menos estructuradas
se habla de entrevista abierta; no directiva, no estandarizada, intensiva, cualitativa,
hermenéutica. En el caso de la semiestructurada se recurre a la expresión “entrevista
centrada”. Se propuso también la noción de entrevista focalizada, un tipo semiestructurado
que se caracteriza por el hecho de que los entrevistados han recibido un estímulo especifico
(una película, un libro, etc.) o han participado de una situación social cuya experiencia
subjetiva es objeto de la entrevista. Marradi propuso una forma especial de entrevista
semiestructurada a partir de un estímulo particular, se trata de historias en las que se narran
episodios de la vida cotidiana y que el entrevistador cuenta al entrevistado para luego explorar
sus reacciones y reconstruir sus preferencias valorativas.

Eduardo Velázquez | www.articulando.com.uy Página 64


Metodología General de la Investigación. Reglamentada. 2013

Caracterización de la entrevista en profundidad


Se caracteriza por su estructura paradójica: en un intercambio explícitamente instrumental y
muy circunscrito en el tiempo –entre personas relativamente extrañas- exige a la vez intimidad
e impersonalidad, profesionalismo en un marco de sociabilidad.

Es un proceso comunicativo por el cual el investigador extrae una información de una persona.
Pero no cualquiera, sino aquella que se encuentra en la biografía del entrevistado, la que fue
experimentada e interpretada.

Es un proceso donde se pone en juego una relación social e involucra a dos actores. Dado que
la relación es asimétrica, el entrevistador debe ser capaz de reflexionar sobre su rol, sus
elecciones y sobre la dirección y sentido de la investigación. Debe tener una persistente
actitud de apertura y a encontrar aquello que no esperaba, moviéndose entre
conceptualización y observación. La función principal del entrevistador es la de escuchar.

Este tipo de entrevistas se caracteriza por el alto grado de subjetividad, para muchos esto es su
principal rasgo y su mayor limitación. Se habla de hipersubjetividad: el entrevistado es un self
que relata historias mediadas por su memoria e interpretación personal, y en este sentido la
información que provee no debe apreciarse en términos de veracidad-falsedad, sino como el
producto de un individuo en sociedad cuyos relatos deben ser contextualizados y
contrastados.

La relevancia o irrelevancia de este juego comunicativo depende en gran medida de las


capacidades, perspicacia y personalidad del entrevistador. La viabilidad se establece a través
de un contrato comunicativo que involucra un conjunto de saberes explícitos e implícitos,
compartidos por ambas partes, que harán posible el funcionamiento de la entrevista. La
entrevista se realiza a partir de un consentimiento informado de parte del entrevistado; los
saberes implícitos aluden a los códigos lingüísticos, culturales y reglas sociales que hacen
posible la comunicación en un contexto.

Usos de las entrevista en las ciencias sociales. Ventajas y desventajas


Se utiliza generalmente cuando se busca acceder a la perspectiva de los actores para conocer
como ellos interpretan sus experiencias en sus propios términos. Se trata de explorar el mundo
de la vida cotidiana.

Con respecto a las ventajas, permite obtener de manera flexible u na información rica y
profunda, en las propias palabras de los actores. También señala que proporciona la
oportunidad de clarificación de un marco más dinámico y espontaneo que el de las entrevistas
estructuradas de las encuestas. Resultan significativas para realizar un primer acercamiento al
tema, y además se destaca su uso a fin de enriquecer resultados de indagación cuantitativa o
cualitativa. Permite acceder a información difícil de conocer sin la mediación del entrevistador,
generalmente situaciones no directamente observables. A diferencia de las entrevistas
grupales, las individuales tienen mayor intimidad

Con respecto a las limitaciones, se señala una desventaja en términos de tiempo, así como
menor capacidad de captar fenómenos de gran dispersión territorial y/o tipológica, menor
capacidad para generalizar resultados, mayor complejidad de registro, procesamiento y

Eduardo Velázquez | www.articulando.com.uy Página 65


Metodología General de la Investigación. Reglamentada. 2013

análisis. Presenta potenciales problemas de reactividad, fiabilidad y validez. No se pueden


observar fenómenos en su ambiente natural.

Cosas que influyen: la empatía del entrevistador y su habilidad para crear un clima favorable.
Las características personales (género, edad, raza, etc.) pueden potenciar ventajas y
desventajas en la entrevista en profundidad.

Preparación y planificación de la entrevista


No tiene reglas fijas. Cada investigador tiene su propio estilo de conducirla, derivado de un
saber práctico incorporado y de las propiedades sociales singulares de entrevistador y
entrevistado.

Hay una serie de cuestiones que pueden planificarse de antemano. La primera es refiere a la
selección de los sujetos a entrevistar por dos motivos importantes

a) Las entrevistas en profundidad se emplean casi siempre en el marco de una


investigación no estándar, que no tienen como objetivo principal la generalización
estadística de sus resultados
b) Por las características mismas de la entrevista, la cantidad que se puede llevar a cabo
es reducida

No existe un criterio único para la selección de entrevistados, se propone tener en cuenta:

a) ¿Quiénes tienen la información relevante?


b) ¿Quiénes son más accesibles física y socialmente?
c) ¿Quiénes están más dispuestos a cooperar?
d) ¿Quiénes son los más capaces de comunicar la información de interés con precisión?

Para responder estas preguntas se recurre a diversas estrategias. La más conocida es el


muestreo intencional, en este caso el investigador seleccionará a los entrevistados de acuerdo
con un conjunto de criterios relevantes, que obviamente pueden cambiar de una investigación
a otra. Se tiene en cuenta 4 tipos de aspectos: la homogeneidad/heterogeneidad de la
población; la tipiedad/marginalidad/representatividad de los sujetos; las variables
sociodemográficas y otras cuestiones que permitan diferenciar a las personas sustantivamente
en función del fenómeno de interés. A partir de la consideración de uno o varios de estos
aspectos, es frecuente segmentar a la población formando subgrupos de los cuales se
seleccionará uno o más entrevistados con el fin de tener un panorama amplio de diferentes
experiencias y discursos.

Cuando se trata de personas que no son fácilmente identificables por parte del entrevistador
(por ejemplo, una minoría) se suele recurrir a la técnica de bola de nieve: a partir de uno o
unos pocos contactos iniciales, se busca ampliar progresivamente el grupo de potenciales
entrevistados que comparan aquellas características que los hacen minoritarios o poco visibles
y accesibles.

Las cuestiones de accesibilidad general se relacionan con lo que se conoce como muestreo
oportunista: se seleccionan aquellos sujetos proclives a colaborar en el estudio y donde el
entrevistador tiene acceso.

Eduardo Velázquez | www.articulando.com.uy Página 66


Metodología General de la Investigación. Reglamentada. 2013

Una cuestión importante es aquella relativa al número de entrevistas. Para dar una respuesta,
se sigue el criterio de saturación: se debería seguir realizando entrevistas hasta tanto se
alcance la certeza práctica de que nuevos contactos no aportan elementos desconocidos con
respecto al tema de investigación, o no emergen aspectos hasta entonces no tratados.

Otro aspecto clave es el diseño de la guía, también llamado guión, que se utilizará en el
desarrollo. Se trata de trazar un esquema que anticipe los modos de abordar el tema central y
lo secundario. Supone tener listas de preguntas de amplio espectro, así como argumentos que
sirvan (en caso de ser necesarios) para pasar a otros temas. Su nivel de detalle puede variar.
Existe una relación directa entre el grado de familiaridad con el tema y la capacidad de pensar
de antemano la guía: a mayor conocimiento, la guía será más exacta. No es un interrogatorio,
la entrevista debe seguir su propia dinámica.

Los preparativos de la entrevista también deben incluir algunos aspectos relativos al


investigador/entrevistador.

Otro punto es el lugar donde se va a realizar la entrevista, así como la forma en que será
registrada, generalmente se graba si se tiene el consentimiento del entrevistado. No se debe
dejar de tener en cuenta el lenguaje no verbal del entrevistador, si se escribe todo, esto se
pierde.

A pesar de todo, la relación de entrevistador y entrevistado es imprevisible, se deberán poner


en juego las llamadas “tácticas del entrevistador”, que son conocimiento que forman parte de
su oficio y pericia y que improvisa durante el encuentro. Esto se pone en marcha a partir de
las intervenciones del entrevistador.

Eduardo Velázquez | www.articulando.com.uy Página 67


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 13: focus group y otras formas de entrevista grupal. Marradi

El focus group
Las entrevistas grupales se caracterizan por la presencia simultánea de varios entrevistados
que se relacionan a través de técnicas conversacionales. El focus group es un tipo de entrevista
grupal que se enmarca dentro de los enfoques cualitativos; su dinámica es organizar un grupo
de personas para que discutan un tema determinado que constituye el objeto de la
investigación. La información es recopilada, registrada y clasificada para su análisis.

Los miembros del grupo son seleccionados en función de los objetivos. Comparten ciertas
características, como puede ser edad, sexo, etc.

La técnica ha tomado diferentes denominaciones; grupos focales, grupos focalizados, grupos


de discusión y motivacionales. Es una entrevista múltiple donde se promueve la interacción
entre los entrevistados, lo que se busca es la situación social de base. Se presentan preguntas
abiertas y se estimula al intercambio.

Un estudio requiere una selección adecuada de los integrantes, un moderador entrenado, un


clima de confianza y tolerancia y analistas experimentados. Se caracteriza por ser muy pautado
en su diseño y estructura a fin de garantizar la calidad de la información y el control de tiempo,
y por la baja estructuración en los contenidos de la información que fluye libremente, pues
solo son orientados a que los integrantes no se desvíen de la propuesta.

Objetivos
Se desarrolla en un escenario que permite observar todos los elementos que se ponen en
juego en la discusión grupal. Se orienta hacia una pluralidad de perspectivas vinculadas a una
temática, que surge de la interacción colectiva, donde se pone al descubierto las motivaciones
y cosmovisiones de los participantes así como los usos frecuentes del lenguaje.

Se utilizan preguntas abiertas y análisis interpretativo de los datos que lo ubican dentro de una
perspectiva no estándar.

La principal riqueza de la técnica reside en la reformulación de significados que se produce en


una dinámica grupal, por esto, pertenecen a un tipo de investigación interpretativa donde sl
sujeto de interpretación es un grupo social intencionalmente construido.

Utilización
Originalmente eran utilizados en estudios de mercado. Más recientemente se usaron en
estudios académicos, como es medicina y sociología. Se utiliza en política. Es muy útil en
estudios de evaluación y en campañas publicitarias electorales.

Se puede utilizar como un método en si mismo o en combinación con otros métodos de


investigación. Sus observaciones y conclusiones no pueden generalizarse a poblaciones más
amplias, ya que los sujetos que los integran no constituyen una muestra estadísticamente
representativa.

Eduardo Velázquez | www.articulando.com.uy Página 68


Metodología General de la Investigación. Reglamentada. 2013

La dinámica de la sesión grupal


Lo necesario para poner en funcionamiento un grupo focalizado es: un espacio físico
adecuado, la presencia de los integrantes, al menos un moderador grupal y equipos para
registrar la información.

Cada grupo se integrará de forma homogénea según ciertas características de sus integrantes,
lo cual los convierte en miembros de algún segmento de la población, o sea que aquello que
hagan puede ser interpretado como de ese segmento social. Este requisito cumple dos
funciones: vinculado al objetivo de la técnica, en la medida de que los resultados se consideran
como expresiones correspondientes al segmento de población seleccionado, y la otra
relacionada con su dinámica, ya que la similitud social facilitará el dialogo. La información
recabada no es considerada un dato individual, tampoco como dato generalizado, sino como
una expresión grupal del segmento.

El tamaño del grupo varía entre 6 y 10 personas. La selección es intencional. Un requisito es


que no se conozcan entre si. Dura entre hora y media y dos horas, durante las cuales el
moderador deberá mantener la discusión focalizada en el tópìco en cuestión. La estimulación a
la discusión es mediante preguntas abiertas, y se deberá evitar el predominio de algunas
voces.

En el focus group no es posible garantizar el anonimato ni la confidencialidad de los datos, ya


que todo es vertido sobre el mismo grupo. El escenario del grupo focal es construido y
organizado por el equipo de investigación, lo cual también es una de sus críticas, porque la
artificialidad de la situación distorsiona discursos y discusiones.

La dinámica se puede dividir en tres momentos:

1. La presentación del grupo: se explican los objetivos, reglas, uso del tiempo y
participantes
2. Planteo de las preguntas abiertas
3. Cierre

Tipos de focus group

Grupos cara a cara


Los más utilizados, los entrevistados están en el mismo espacio. Cualquier persona puede ser
invitada a participar. La presencia simultánea genera una gran cantidad de datos que
trasciende al discurso verbal, como la gestualidad y el lenguaje corporal. Otra ventaja es que se
pueden presentar muchos materiales, como puede ser audiovisual. Sus principales desventajas
residen en reclutar sujetos en un área geográfica delimitada y que deban desplazarse hasta el
lugar de reunión, incidiendo en los costos y en la tasa de aceptación. La desgravación y
transcripción demoran pero son necesarias.

Grupos telefónicos
Se permite integrar individuos que residen en lugares geográficos diferentes. Útil para reunir
personas que no asistirán a una reunión cara a cara por sus características individuales. Tiene
un menor costo, un mayor grado de anonimato, y las transcripciones son accesibles en
tiempos más cortos. La desventaja es la incapacidad de presentar material audiovisual, aunque

Eduardo Velázquez | www.articulando.com.uy Página 69


Metodología General de la Investigación. Reglamentada. 2013

algunas cosas pueden ser enviadas a los integrantes por algún medio. Para hacer estos grupos,
es necesario contar con algún tipo de tecnología que permita conferencia telefónica.

Grupos focales online


Los integrantes deben tener acceso a internet. No necesitan trasladarse. Bajo costo. Se pueden
trasmitir materiales audiovisuales. No se produce una dinámica interacción fluida, ya que los
sujetos tienden a tipear simultáneamente sus respuestas de forma que se producen en forma
paralela bajando la influencia entre los participantes. La transcripción se produce de forma
automática.

La coordinación
El coordinador es clave. Su rol es de promover el interés, la participación, la interacción y el
debate. Su objetivo es que el grupo funcione con autonomía, permitir que las ideas fluyan
libremente y solo intervenir como guía, manteniendo focalizado su contenido y estimular a
todos los miembros a participar.

El coordinador trabaja con una pauta de entrevista organizada en base a la lógica que va de lo
general a lo individual. Las preguntas abiertas iniciales son más generales y permiten ubicar al
grupo en la temática; luego se acerca la discusión al objeto deseado a través de preguntas más
puntuales.

El moderador no forma parte de la discusión ni plantea posiciones, sino que le genera el clima.
La mayor dificultad radica en estimular a los participantes a profundizar en el foco de la
discusión. Puede utilizar diferentes técnicas para estimular las asociaciones, como juego sde
presentación, test proyectivos y role playing.

El registro y análisis de la información.


Generalmente en el grupo cara a cara se registra mediante audio o video, el video permite
observar el lenguaje no verbal. Posteriormente se desgraba y se transcribe para su análisis.
Debe ser textual y sin omisiones, dejando inclusive registrados los silencios. En un grupo de
doble coordinación, uno toma nota.

Una vez desgrabada, es procesada a través de su codificación y clasificación. Una vez


organizada, se procede al análisis en dos niveles: la narración descriptiva y la interpretación.

Lo ideal sería que el moderador, quien realiza la transcripción y el analista sean la misma
persona, ya que como todo análisis cualitativo, la habilidad y subjetividad del analista influye
en los resultados.

Todos los pasos del focus group deben reflejarse en el informe final. Debe contener los
objetivos y las estrategias, así como toda la información relevante de la puesta en marcha, así
como los aspectos formales: número de grupos, participantes, criterios y procesos de
selección, fechas, cantidad de moderadores, tipo de registro, etc. Es importante que aparezcan
todas las opiniones y posiciones expresadas, ya que en el informe no se puede incluir toda la
información registrada.

Eduardo Velázquez | www.articulando.com.uy Página 70


Metodología General de la Investigación. Reglamentada. 2013

Otras formas de entrevista grupal


En algunas el énfasis no está puesto en la interacción grupal, sino en las respuestas
individuales de los integrantes. En este caso, es menos importante que los miembros se
conozcan, y es habitual que se apliquen a grupos que tengan una existencia previa dentro de
una institución o comunidad. Las dinámicas aquí son semejantes a la entrevista individual.

También es posible realizar una entrevista a miembros de un grupo en forma simultánea con
un cuestionario auto administrado. Responde cada uno en forma individual, no existe
interacción. Aquí se procesa al igual que una encuesta.

Otro tipo puede ser la tormenta de ideas, con el fin de generar nuevas ideas, y es de carácter
inestructurado y exploratorio.

El grupo terapéutico es otra forma particular orientada a la elaboración colectiva de problemas


que afectan la vida individual. Se relaciona a la búsqueda de ayuda a través de procesos
emocionales que se desatan en la interacción grupal. Es liderado por un terapeuta, quien
conforma el grupo. Los contenidos son abiertos basados en la libera asociación.

Los denominados grupos nominales o técnica Delphi se usan para solucionar problemas
basados en opiniones de expertos. La idea es consultar a un grupo de especialistas sobre
determinado tema y circular las respuestas en ronda para lograr un consenso. No existe
interacción simultánea o presencial, pero cada uno conoce las respuestas del resto, con lo que
se puede reformular una nueva respuesta. Los cuestionarios utilizados tienen preguntas
precisas, y luego se aplican técnicas cuantificables.

Eduardo Velázquez | www.articulando.com.uy Página 71


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 14: estudio de caso/s. Marradi


¿Método o estrategia de investigación?
El estudio de casos (EC) se basa en un diseño de investigación orientado al análisis de las
relaciones entre muchas propiedades centradas en una sola unidad. Trabajar con muchas
variables y un caso (o muy pocos) ha dado lugar a diversas estrategias de abordaje
encaminadas a la búsqueda de múltiples fuentes de evidencia.

Bartolino lo grafica como una fila de la matriz de datos cuando se trata de un estudio
sincrónico (un caso observado en el correr del tiempo) y lo diferencia del “estudio de
desarrollo del caso” cuando incorpora al tiempo como una dimensión de variación.

Sartori considera el análisis comparativo y el estudio del caso como estrategias


complementarias.

Otros autores incluyen en sus categorizaciones del EC la posibilidad de analizar más de un caso
en forma comparada. El primero lo denomina “estudio de caso colectivo” y el segundo se
refiere a “casos múltiples”.

En algunos trabajos al EC se lo considera un método, a pesar de que resulta difícil señalar


características del EC que permitan diferenciarlo de otros métodos de investigación,
asignándole la autonomía necesaria para hablar de un método diferente. Parece más
adecuado considerar una estrategia o diseño de investigación, al cual generalmente se hace
referencia en vinculación con los métodos cualitativos o con el método comparativo.

Consideramos adecuada la propuesta de Stake que sostiene que el EC no se trata de una


opción metodológica sino de la elección de un objeto de estudio; es el interés en el objeto lo
que lo define y no el método que se utiliza. Cualquier unidad de análisis puede convertirse en
ese objeto (el caso) el cual se puede tratar tanto de una unidad individual como colectiva. El
objeto se puede abordar desde diferentes métodos y con diversas técnicas de recolección de
datos y análisis.

El predominio de las perspectivas no estándar en los EC se basa en diversos factores

 Tratándose de una o pocas unidades, el enfoque predominante es el análisis en


profundidad; la búsqueda no se orienta hacia el establecimiento de las regularidades
empíricas sino hacia la comprensión del caso en su unicidad
 Resulta difícil realizar inferencias generalizantes
 Los estudios se llevan a cabo en el escenario natural

A pesar de ser un método no estándar, no se descarta la aplicación de un método estándar en


el caso que se intente abordar una visión más macro.

En resumen, metodológicamente los EC son, generalmente, de tipo multimétodo, dado que el


objetivo es abordar un objeto de forma holística.

Cuando hacer un estudio de caso


Generlamente se diseña un estudio de caso ante un objeto particular que despierta el interés
del investigador o por la decisión de elegir un objeto de estudio típico para dar cuenta de un

Eduardo Velázquez | www.articulando.com.uy Página 72


Metodología General de la Investigación. Reglamentada. 2013

fenómeno observable. En otras oportunidades, el objeto de estudio no es una elección sino


que llega al investigador ya caracterizado como tal (un caso terapéutico).

Las siguientes son algunas situaciones que dan lugar al diseño de un EC

a) La aparición de un fenómeno nuevo que excede a la teoría existente


b) La percepción de un caso, tradicionalmente enmarcado en algunas teorías existentes,
que presenta especificidades que ésta no alcanza a explicar.
c) A partir del interés por estudiar un fenómeno general, se selecciona un caso de
observación, por sus características paradigmáticas o ejemplificadoras. La intención
puede ser proveer una base empírica o una teoría a desarrollar un estudio critico
tendiente a su reformulación
d) Las dificultades (económicas o de accesibilidad) para llevar a cabo un estudio amplio
algunas veces desembocan en la elección de uno o algunos casos como etapa previa a
futuras investigaciones más abarcativas.

Algunas tipologías de estudio de caso


La falta de consenso sobre la caracterización metodológica de esta estrategia ha dado lugar a
la construcción de diversas tipológicas de EC desde diferentes enfoques:

a) Stake clasifica los EC a partir del propósito del investigador


i. EC intrínsecos: el caso en si mismo es el que despierta interés. La investigación
se orienta a una descripción densa que relate la especificidad de ese caso,
relaciones y particularidades.
ii. EC Instrumental: el caso cumple el rol de mediación para la comprensión de un
fenómeno que lo trasciende. El propósito va más allá del caso, este es utilizado
como instrumento para evidenciar características de algún fenómeno o teoría.
iii. EC Colectivo: investigación comparativa del estudio de varios casos.

Los tipos propuestos por Stake no son excluyentes entre ellos.

b) Yin. Dos tipologías basadas en diferentes criterios. Por un lado distingue, según el
número de casos seleccionados, entre el EC único que concentra la atención en un solo
caso y el EC múltiple que incluye más de un caso en un mismo estudio.

El diseño basado en un EC único se justifica cuando se trata de un caso crítico (utilizado


para poner a prueba una teoría) de un caso extremo (muy raro o difícil de encontrar) o de
un caso revelador (fenómenos de difícil acceso). En segundo lugar, distingue entre el EC
holístico y el incrustado. Esta distinción se basa en el número de unidades de análisis que
incluye el diseño de investigación. Es holístico cu ando se trabaja con una sola unidad de
análisis, mientras que el incrustado se presta atención a subunidades que permiten análisis
más amplios.

El eje único/múltiple es cruzado por un lado con el eje holístico/incrustado.

Por otro lado, Yin combina el eje único/múltiple con una clasificación EC basa en el objetio
de la investigación: exploratorio, descriptivo y explicativo.

Eduardo Velázquez | www.articulando.com.uy Página 73


Metodología General de la Investigación. Reglamentada. 2013

 EC Exploratorio: orientado a definir preguntas e hipótesis para estudios


posteriores más amplios.
 EC descriptivos: descripción densa del caso contextualmente situado
 EC Explicativo: se intenta establecer relaciones de asociación entre las
variables bajo estudio en el caso. Se orienta a estudios causales.

c) Lijphart considera que la discusión del método comparativo no está completa si no se


toma en consideración el método de EC: Diferencia a los métodos sobre la base del
número de casos: caracteriza el método estadístico por basarse en muchos casos, el
comparativo por aplicarse a pocos casos y el EC por aplicarse a solo uno. Afirma que no
es posible inferir una generalización ni refutar una generalización establecida. Le
reconoce el mérito de contribuir al proceso de formulación de proposiciones y
construcción de teorías a partir de los resultados de un análisis intenso del objeto.
Enuncia 6 tipos de EC:
i. EC Ateórico: investigación totalmente descriptiva que resulta útil como fuente
exploratoria de información
ii. EC Interpretativo: el in teres sigue puesto en el caso más que en una teoría
general, pero a diferencia de los anteriores utilizan proposiciones de la teoría
establecida de forma explícita. Se orientan a iluminar la comprensión de un
caso
iii. EC Generadores de hipótesis: intentan comprobar hipótesis iniciales cagas y
desarrollar generalizaciones teóricas. Alto valor teórico.
iv. EC que confirman una teoría: ponen a prueba proposiciones e hipótesis
v. EC que debilitan una teoría
vi. EC desviados: con la intención de comprender o explicar casos que se desvían
de teorías generales.
Según Lijphart, los generadores y los desviados son los que más contribuyen a la
construcción de teoría.

d) Satori retoma las categorías del autor anterior pero toma en cuenta solo aquellas que
se vinculan a la teoría y las denomina estudio de caso heurístico, crucial y desviado:
i. EC heurístico: útil para la generación de hipótesis
ii. EC Crucial: fortalecen o debilitan una teoría
iii. EC Desviado: son los que se desvían de una proposición general o teoría
establecida

e) BEnt Flyvbjerg formula una tipología de cuatro tipos de EC que no considera


excluyentes entre si:
i. EC extremo o desviado: a los casos inusuales dentro de una teoría
ii. La máxima variación de casos: diseño de casos múltiples seleccionados por sus
disimilitudes.
iii. EC crítico: permiten inferir conclusiones para el tipo en su conjunto. Esta
vinculado a la presencia de todas las propiedades que se intentan estudiar,
afirmando algo para un caso es válido para todos los casos.

Eduardo Velázquez | www.articulando.com.uy Página 74


Metodología General de la Investigación. Reglamentada. 2013

iv. EC paradigmático: son casos que resaltan características más generales de la


sociedad.

La mayoría de las categorías presentadas podrían reducirse a cuatro tipos básicos definidos a
partir de dos ejes: a) el número de casos de estudio, y b) la intervención prevaleciente en la
selección de casos. Los autores han prestado mayor atención a la categorización de los
estudios de caso único vinculados con la construcción de teoría. Para los comparativistas, los
estudios basados en más de un caso se enmarcan en un método comparativo y no en el
denominado EC. Por otro lado, se otorga mayor valor a los EC con valor heurístico, ya que
proveen soporte empírico, elementos conceptuales y núcleos de sentido para la comprensión
de fenómenos que los trasciende.

La función de EC en tanto control de una teoría no están exentos de debate. Se destaca la


tensión entre investigaciones basadas en muchos casos y pocas variables (método estadístico)
e investigaciones orientadas a analizar pocos casos en toda su complejidad.

La selección de casos
Cuando el caso no viene definido desde fuera de la investigación, o cuando no se trata de un
caso intrínseco, surge el problema de su selección.

En primer lugar es necesario definir la unidad de análisis (individuos, ciudades, etc.), para luego
seleccionar dentro del conjunto de unidades de análisis del caso. La selección de la unidad de
análisis está condicionado por la perspectiva teórica y los objetivos de la investigación, y una
vez que esta ha sido determinada, ella condiciona la estrategia de la recolección de datos.

La selección del caso nunca se realiza por azar como en los métodos estadísticos, porque se
parte de la no equivalencia entre los casos, que se destaca a través de la propuesta orientada a
la comprensión de la especificidad de cada caso. El proceso de selección está basado en
criterios teóricos, experiencias de observación y expectativas.

La importancia de definir los limites (acotar) está en definir que se desea incluir en la
investigación y que queda por fuera.

Stake enuncia dos criterios de selección: maximizar lo que potencialmente podemos aprender
del caso y su mayor accesibilidad.

Es importante destacar que el proceso de selección y sus criterios no se agotan en la


identificación del caso, el investigador también debe establecer los niveles intermedios de
análisis, es decir, hasta donde se abordarán las complejidades del caso.

Uno de los riesgos es la selección desviada, en particular, cuando se trata de estudios para
confirmar o debilitar generalizaciones, esto es culpa de la selección no azarosa y la
participación de la subjetividad del seleccionador. Es importante hacer explícitos los criterios
de selección y su relación con la teoría para evitar esto.

Eduardo Velázquez | www.articulando.com.uy Página 75


Metodología General de la Investigación. Reglamentada. 2013

Capítulo 17: otras formas de análisis. Marradi

Introducción
Frecuentemente, en ciencias sociales, hay una predilección por todo lo que es recolección no
estándar que va desde la aceptación de sus fundamentos hasta el rechazo de lo “cuantitativo”.
Igualmente, también hay un rechazo de convertir el resultado de una investigación en algo
más tangible: un paper, libro, etc.; en otro caso, a veces se hacen y se hacen mal.

General este tipo de objetos tangibles es científicamente valioso, pero no debe ser una mera
compilación sin interpretación o mediación. Es necesario recordar que las ciencias sociales se
caracterizan por las interpretaciones de segundo orden que los científicos hacen a partir de las
interpretaciones de primer orden que los actores verbalizan (por ejemplo en una entrevista)
acerca de su vida cotidiana.

Pero estas interpretaciones de segundo orden no son sencillas. La investigación no estándar


tiene la particularidad de que la recolección es sencilla pero su análisis no lo es tanto.

El investigador tiene que decir algo más de lo que las informaciones recolectadas, por si
mismas, pueden llegar a sugerir. De lo contrario, su labor pierde sentido. Las técnicas de
análisis tienen un valor fundamental, ya que permiten ordenar, sistematizar, preparar la
información de una manera funcional a las posibles construcciones discursivas con las cuales
se intentará dar cuenta de los fenómenos investigados. En este sentido tienen un rol
instrumental de mediación y facilitación.

Esta función de mediación la cumplen en gran medida las técnicas estadísticas. Se trata de
técnicas en sentido fuerte: la base empírica se expresa (o puede expresarse) a través de
números y se condensa en una matriz de datos independiente del significado de esos
números. En cambio, cuando se trata por bases empíricas constituidas por imágenes, palabras
o textos que no pueden reducirse a una suma de palabras, ni tampoco transformar en
números de una matriz, el panorama de las técnicas de análisis se vuelve mucho más complejo
y variado. No existe un consenso sobre cuál es la más apropiada. Tal vez no sea correcto
denominarlas técnicas: no se trata de procesos altamente formalizados, no se usan
recurrentemente para un mismo problema y consecuentemente tampoco hay consenso acerca
de ellos en la comunidad científica.

Con respecto a las técnicas llamadas de análisis cualitativo (no estándar) hay al menos una
cuestión acerca de la cual es relativamente fácil establecer una clasificación útil: nos referimos
a las diferentes posiciones sobre la pertinencia de su sistematización, dando lugar a técnicas
en sentido estricto. Por un lado, están aquellos que creen que el análisis cualitativo es
artesanal, ligado a las aptitudes del investigador; en otro lado, están quienes creen que se
pueden hacer técnicas con características análogas a las estadísticas. Finalmente, están
quienes creen que todo proceso es complejo, y conlleva múltiples operaciones y decisiones,
que a su vez llevan a poner en juego tanto conocimientos impersonales (técnicas) como
saberes tácitos y personales.

El análisis de contenido

Eduardo Velázquez | www.articulando.com.uy Página 76


Metodología General de la Investigación. Reglamentada. 2013

Es una técnica de interpretación de textos, ya sean escritos, grabados, pintados, filmados, etc.,
que se basan en procedimientos de descomposición y clasificación de estos.

Se define como una técnica de investigación para la descripción objetiva, sistemática y


cuantitativa del contenido manifiesto de una comunicación.

Como lo indica Stemler, el interés por le tratamiento cuantitativo de los aspectos manifiestos
del texto se basa en el presupuesto de que las palabras más mencionadas permiten dar cuenta
del verdadero foco de una comunicación. Sin embargo, rápidamente se concluyó que el
análisis de contenido debía ir más alla de un simple conteo de palabras, dando lugar a la
incorporación de la exploración del contenido latente, o al menos del contexto en cuanto
“marco de referencia” donde se desarrollan los mensajes y los significados.

En la actualidad se distingue entre el análisis de contenido clásico, fiel a la cuantificación de los


aspectos manifiestos del texto y en análisis de contenido cualitativo.

El clásico se presenta ahora a través de tres tipos: el análisis temático, el análisis semántico y el
análisis de redes. El temático se centra en la presencia de términos, con independencia de las
relaciones que surjan entre ellos. El semántico pretende estudiar las relaciones entre los temas
tratado en un texto, para esto se define cierta estructura significativa de relación y se
consideran todas las ocurrencias que concuerden con ella. El contenido de redes se centra en
la ubicación relativa de ciertos componentes en el texto, asumiendo que la red léxica
ideológicamente significativa que impregna el discurso se identifica sobre la base de la
reiteración y da como resultado un esquema de la organización semántica de este discurso en
forma de red.

El análisis del contenido cualitativo no niega las ventajas del cuantitativo, al que toma como
etapa inicial, sola que busca enriquecerlo a través de procedimientos interpretativos, tratando
de llegar a lo latente y al contexto en que se inscribe. Se plantea una serie de preguntas

a) Que datos serán analizados


b) Como se los define
c) Cuál es la población del cual se los toma
d) Cuál es el contexto relativo a los datos analizados
e) Cuáles son los límites del análisis
f) Cuál es el objetivo de las inferencias.

Una vez definido el conjunto de textos (o imágenes a analizar), la cuestión fundamental es


construir un esquema de codificación. Esto se puede hacer a priori a partir de una opción
teórica o siguiendo un recorrido emergente. Se ha propuesto que la construcción de esquema
a partir de un consenso de codificadores.

Una vez alcanzada la versión final del esquema de codificación, y habiendo controlado su
funcionamiento con una prueba piloto, este se aplica a todos los textos en cuestión. Se trata
de interpelarlos de manera estandarizada a partir del esquema. El esquema es la base
estructural de una matriz de datos, que luego será completada con los resultados de su
aplicación al conjunto. Una vez construida su matriz, se procede a hacer análisis estadísticos,
recurriendo a técnicas univariadas, bivariadas y multivariadas habituales.

Eduardo Velázquez | www.articulando.com.uy Página 77


Metodología General de la Investigación. Reglamentada. 2013

La teoría fundamentada y el método comparativo constante


La revitalización de los enfoques de investigación no estándar trajo debates acerca del estatus
científico de estos, mayormente por su fiabilidad y por la difícil generalización de los
resultados. Influía también la falta de estandarización de sus procedimientos. Comenzó a
difundirse una visión de que estos procedimientos no estándar eran secundarios pero útiles,
sirviendo para una primera aproximación a fenómenos poco conocidos.

Un primer intento orientado a su formalización fue el de Znaniecki que propuso la inducción


analítica como un procedimiento sistemático para desarrollar clasificaciones y tipos, o para
producir hipótesis explicativas a partir de trabajo cualitativo. Fue criticado por su pretensión a
formular leyes universales y sus aplicaciones perdieron vigencia.

Distinto fue el caso de Glaser y Strauss con su intento acerca de procedimientos para generar
teoría fundamental, sentando las bases para lo que hoy podría considerarse práctica común en
el análisis cualitativo de transcripción de entrevistas y otros materiales afines.

El procedimiento llamado “método comparativo constante” es opuesto a la estrategia


canónica de generación de teoría a partir de deducciones. Consta de cuatro etapas, desde la
comparación de incidentes hasta la escritura de la teoría, pasando por la integración de
categorías y propiedades, y delimitación de la teoría.

El primer paso consiste en comparar distingos fragmentos de datos y agrupar todos aquellos
que remitan a una misma cuestión bajo un rotulo común hasta ir “descubriendo” categorías
conceptuales y sus dimensiones, que deberán ser saturadas. Luego, las categorías y
dimensiones ya saturadas se van articulando e integrando. En este proceso de delimitación de
la teoría se busca satisfacer el criterio de parsimonia a través de la selección de aquellas
categorías que sean centrales. Se determinarán las posibilidades de generalización de la teoría.
En todo este recorrido se recurre a la comparación constante, una suerte de dialogo de teoría
y base empírica.

Esta propuesta ha sido objeto de duras críticas. Se han señalado especialmente los riesgos del
inductivismo, el excesivo énfasis puesto en la generación de teorías a expensas de la captación
de experiencias vividas en las situaciones de interacción y la carencia de principios
suficientemente concretos como implementar en la práctica el método comparativo
constante. Sin embargo, la gran difusión de la teoría fundamentada en las ciencias sociales
permitió sentar algunas bases elementales acerca de cómo encarar el análisis de entrevistas.
La identificación de núcleos temáticos y su consecuente articulación sigue siendo práctica
común.

El análisis del discurso


Se alude a un conjunto amplio de enfoques cuyo objetivo central es el análisis del lenguaje
hablado y escrito. Se trata de una práctica caracterizada por la transdisciplinariedad, el interés
por el texto y el contexto, por el habla en la vida cotidiana y por la variedad de géneros
discursivos. Según Vasilachis tiende a ser una práctica académica interdisciplinaria y
socialmente orientada cuyo núcleo clásico son los análisis estructurales de las propiedades
lingüísticas, estilísticas, retóricas o pragmáticas de los textos y del habla.

Eduardo Velázquez | www.articulando.com.uy Página 78


Metodología General de la Investigación. Reglamentada. 2013

Es un tipo de investigación no estándar en sí mismo, y no solo una estrategia o mero


procedimiento de análisis de la información cualitativa.

Se distinguen tres niveles básicos de aproximación al análisis de discursos: un nivel


informacional/cuantitativo, un nivel estructural/textual y un nivel social/hermenéutico.

El primero de ellos se centra en la exploración de las dimensiones denotativas y manifiestas


del texto, y para esto recurre al tratamiento cuantitativo/estadístico. Es lo que antes llamamos
análisis de contenido.

El análisis estructural surge del entrecruzamiento entre la lingüística estructural y la


antropología, y busca hallar los elementos lógicos invariantes y prácticamente universales de
los textos concretos, o las estructuras subyacentes abstractas que tienden a cumplirse también
en este o aquel texto elegido.

Alonso destaca los límites de este enfoque, donde el sociólogo no debe centrarse en el texto
por sí mismo sino en cuanto soporte de discursos. Es fundamental situar al texto en su
contexto, pero no solo entendido como marco situacional de la producción del discurso, o
como contexto semiótico/intertextual, sino como contexto social.

Una muy influyente en las ciencias sociales es la que se conoce como análisis crítico del
discurso, una perspectiva interdisciplinaria que se desarrolló desde los ochenta. Esta considera
al lenguaje en cuanto forma de práctica social, centrándose en los modos en que la
dominación política y social se reproduce a través de los textos de Fairclough.

En el contexto latinoamericano, Vasilachis ha sido una de las pioneras en aplicar elementos del
análisis del discurso en la investigación social empírica. Su propuesta metodológica pretender
abordar “el espacio en que convergen los métodos cualitativos y el análisis lingüístico de textos
orales o escritos, de acuerdo con la hipótesis de que ambas estrategias comparten supuestos
paradigmas interpretativos”. Su propuesta se articula a partir de 4 tesis fundamentales:

1. El lenguaje en forma de producción y reproducción del mundo social


2. El contexto determina el significado y el alcance de las emisiones y su
producción, así como el contenido de las interpretaciones
3. El análisis lingüístico puede contribuir a la comprensión del sentido de la
acción en la interacción comunicativa
4. El intérprete debe asumir la perspectiva de los actores y reconocer los
significados que ellos dan a su acción y a la de otros dentro de un contexto
dado

Sin embargo, a pesar de todos los desarrollos, aún no se asiste a una universalización de sus
aplicaciones. No existe una estrategia única sobre cómo abordar el análisis de texto en
contexto; se debe reconocer que muchas de las propuestas son fundamentalmente formas de
investigación no estándar en si; finalmente, cabe destacar que la mayoría de ellas exigen
conocimientos sofisticados que no están al alcance de la mayoría de los investigadores
sociales, y que en todo caso rara vez forman parte de su curriculum de estudio.

Eduardo Velázquez | www.articulando.com.uy Página 79


Metodología General de la Investigación. Reglamentada. 2013

Definición de análisis estadístico. Runyon


¿Qué es la estadística?
Se la considera frecuentemente como una colección de hechos números expresado en
términos de proposiciones concisas, y que han sido recopiladas durante varias observaciones,
o a partir de datos numéricos.

También puede ser considerada como un método para manejar los datos. Esto destaca de que
la estadística es una herramienta para la recopilación, organización y análisis de hechos
números o de observaciones. Esta definición es la más acertada para el tratamiento que le
daremos.

Se pueden diferenciar entre las técnicas estadísticas descriptivas y las inferenciales o


inductivas. La descriptiva presenta la información en una forma cómoda, utilizable y
comprensible. La inferencia se ocupa de las generalizaciones de esta información o de hacer
deducciones basándose en muestras tomadas.

Definiciones de términos comúnmente utilizados en estadística


 Variable: cualquier característica de una persona, medioambiente o situación
experimental y que puede variar.
 Datos: Número o medidas obtenidos como resultado de observaciones
 Población o universo: conjunto completo de individuos, objetos o medidas que tienen
algunas características comunes observables.
 Parámetro: característica medible de una población
 Muestra: subconjunto de una población o universo
 Muestra aleatoria: subconjunto de población o universo seleccionado en forma tal que
cada miembro de la población tenga igual oportunidad de ser elegido
 Estadígrafo: numero resultante de la manipulación de datos de la muestra de acuerdo
con ciertos procedimientos específico. Para cada estadígrafo que describe algún
aspecto de una muestra existe un parámetro correspondiente que describe el mismo
aspecto de una población.

Estadística descriptiva
Un científico recolecta mucha información numérica o datos acerca del problema en cuestión.
Los datos pueden tomar diversas formas. Al realizar la función descriptiva el estadístico
formula reglas y procedimientos para la presentación de los datos en una forma más útil y
significativa. Así, establece la representación gráfica, también formula reglas para el cálculo de
diversos estadígrafos a partir de datos en bruto.

De esta forma se podría:

 Reordenar los punteos y agruparlos para tener una imagen global de los datos
 Construir tablas, graficas, etc.
 Puede convertir los datos originales de forma que sean más útiles, como pasar los
números a porcentajes, etc.
 Calcular promedios
 Puede calcular dispersión a partir del promedio

Eduardo Velázquez | www.articulando.com.uy Página 80


Metodología General de la Investigación. Reglamentada. 2013

 Se pueden obtener relaciones entre dos instrumentos de medida diferentes.

Estadística inferencial
Para muchos, el trabajo comienza al haber completado la función descriptiva, ya que el
propósito es explorar hipótesis de naturaleza general y no simplemente comparar algunas
muestras limitadas

A partir de las dudas que surgen, se ingresa en el análisis estadístico conocido como estadística
inductiva o inferencial, lo que permite lograr conclusiones que se extiendan más allá de las
muestras estadísticas mismas.

Eduardo Velázquez | www.articulando.com.uy Página 81


Metodología General de la Investigación. Reglamentada. 2013

Tipos de investigaciones cuantitativas. Briones.

Hay numerosos tipos de investigaciones cuantitativas que resultan de la aplicación de uno o


más criterios de clasificación. Según el objetivo, pueden clasificarse en descriptivas y en
explicativas. Según el tiempo se distinguen las investigaciones sincrónicas o transversales,
que se refieren al objeto de investigación en un mismo período de tiempo, y las
investigaciones diacrónicas o longitudinales, en las cuales los individuos se analizan durante
un cierto tiempo, de manera más o menos continua. A este tipo pertenecen los estudios de
cohortes constituidas por personas que tienen uno o más rasgos comunes, los estudios de
paneles (un mismo grupo estudiado en varios momentos), etc.

Otra clasificación importante se basa en la posibilidad que tiene el investigador de controlar la


variable independiente y otras situaciones del estudio, donde se distinguen los siguientes
tipos generales de investigaciones: a) experimentales; b) cuasiexperimentales; y c) no
experimentales.

Investigaciones experimentales
El investigador tiene el control de la variable independiente o variable estímulo, la cual puede
hacer variar en la forma que sea más apropiada a sus objetivos. De igual manera, puede
controlar la conformación de los grupos que necesita para su estudio.

Permiten determinar:

a) El efecto de una variable independiente sobre una variable dependiente


b) Los efectos diferenciales de dos o más modalidades de una variable independiente
sobre otra dependiente
c) El efecto conjunto de dos o más variables independientes sobre otra

Se deben tomar en cuenta las siguientes recomendaciones:

1. La investigación debe realizarse, en la medida de lo posible, en la misma escuela o


ambiente en el cual se pretende generalizar los resultados obtenidos en una muestra.

2. Deben utilizarse diversos contextos educacionales con las respectivas muestras


experimentales cuando se desea, por ejemplo, validar un cierto recurso instruccional

3. Al efectuar un experimento, el investigador debe prestar atención a las conductas de las


personas sometidas al estudio con el propósito de utilizar, si procede, sus opiniones y
comentarios al interpretar los resultados obtenidos.

4. En muchas ocasiones, es útil darle instrucciones un tanto más detalladas que las usuales a
las personas que participan en el experimento, sin llegar a inducir las respuestas o
reacciones buscadas. Este procedimiento puede convenir cuando las condiciones en las
cuales se va a realizar el estudio son muy diferentes a aquellas en las cuales se desenvuelven
habitual mente tales personas.

Los tipos específicos más usados de la investigación experimental son:

Eduardo Velázquez | www.articulando.com.uy Página 82


Metodología General de la Investigación. Reglamentada. 2013

a) Diseño con un grupo experimental, un grupo de control y mediciones “antes” y “después”


en ambos grupos.

Este diseño constituye la forma clásica de la investigación experimental. En él, los sujetos
del estudio son asignados aleatoria mente –al azar– al grupo experimental y al grupo de
control. Luego se siguen los pasos siguientes:

1. En ambos grupos se hace una medición “antes” (pre-test) de la variable dependiente


2. Luego, se aplica la variable independiente sólo en el grupo experimental
3. Se hacen mediciones “después” (pos-test) en ambos grupos.
4. Finalmente, se hacen comparaciones, en ambos grupos entre las mediciones “antes” y
las respectivas mediciones “después”.

La conformación aleatoria de los dos grupos permite eliminar, al nivel del azar, las
diferencias que pudieran existir entre sus sujetos componentes; las mediciones “antes” y
“después” en ambos grupos y sus comparaciones en cada uno de ellos permiten constatar
si ha habido diferencias entre ellos, y si éstas fueran a favor del grupo experimental,
entonces el investigador podría decir que ellas se deben a la acción de la variable
independiente o trata miento que sólo fue aplicado a ese grupo.

Debido al mismo hecho de utilizar el azar, en la formación de los grupos se controlan los
factores de selección (no hay elección intencionada) y el de mortalidad (si los grupos son
prácticamente iguales, los dos deberían tener, de ocurrir, similar número de personas que no
completan el experimento). Por usar un grupo de control, el experimento clásico controla
también los factores de historia (efecto de circunstancias externas al experimento que
pueden influir en sus resultados, el cual debería ser similar para los dos grupos) y el de
maduración (cambios biológicos y psicológicos que se darían en ambos grupos de manera
semejante mientras se hace el experimento).

Para la constatación de las posibles diferencias entre los grupos experimental y de control, una
vez ter minado el experimento, se debe utilizar análisis de la covarianza con los puntajes
“antes” (pretest) como covariable. Este procedimiento permite ajustar las diferencias de
los sujetos de ambos grupos, dejando sola mente los cambios de la variable independiente
como causa de las modificaciones que se darían entre ellos.

Este diseño, como el que exponemos a continuación, puede utilizarse con más de un grupo
experimental.

b) Diseño con un grupo experimental y un grupo de control con mediciones sólo


“después”.

Es un diseño que sólo se diferencia del clásico que acabamos de ver en cuanto, por alguna
razón o impedimento, no se hacen mediciones “antes” de la variable dependiente en ninguno
de sus dos grupos. Comprende los siguientes pasos:

1. Conformación aleatoria de los grupos experimental y de control (puede utilizarse más


de un grupo experimental, por ejemplo, al comparar dos métodos de exposición
sobre las drogas).

Eduardo Velázquez | www.articulando.com.uy Página 83


Metodología General de la Investigación. Reglamentada. 2013

2. Aplicación de la variable independiente, trata miento o prueba sólo al grupo


experimental.
3. Medición “después” (postest) de la variable dependiente (por ejemplo, actitud frente
a las drogas) en ambos grupos.
4. Comparación de las dos mediciones “después”.

El diseño controla los factores que pueden actuar contra la validez interna del
experimento, como lo son la historia y la maduración , por utilizar un grupo de control.
También controla los factores de la selección (sesgos) y de la mortalidad experimental.
Debido al hecho que no se hacen mediciones “antes” no puede haber efecto sobre la prueba
que se utiliza en la medición “después”. Pero por no utilizar medición “antes”, el diseño
tiene varias desventajas, entre las cuales se destacan las siguientes:

1. No es posible usar el análisis de la covarianza para controlar las diferencias iniciales


que podrían tener los grupos experimental y de control.
2. Si se retiran sujetos de cualquiera de los dos grupos, y co mo no tenemos mediciones
“antes”, no sabemos si las diferencias, de producirse, entre las situaciones finales del
grupo experimental y de control se deben a la influencia del tratamiento (variable
independiente) en el primero de estos grupos o bien se deben a las diferencias que
pudieron existir al comienzo del experimento entre los sujetos de ambos grupos.

El análisis de los resultados (puntajes, en general) se hace comparando la diferencia entre los
puntajes “después” de ambos grupos mediante estadística. Si se utilizan más de dos grupos,
se debe utilizar el análisis de la varianza.

c) Diseño de dos grupos apareados con mediciones “antes” y “después”.

Es una variación del diseño clásico en cuanto consiste en aparejar (igualar, en la mayor
medida posible) los sujetos que constituirán el grupo experimental y el grupo de control, con la
finalidad de eliminar o disminuir al máximo las diferencias entre ellos. El apareamiento
cumple la misma función que la asignación al azar utilizada en el diseño clásico con el
resultado que en este nuevo diseño se logra mayor precisión en el momento de analizar
los datos.

El procedimiento metodológico comprende las siguientes tareas:

1. Se aplica una prueba a un grupo de sujetos, destinada a medir la variable


dependiente (digamos, la actitud hacia la política), o una variable estrecha mente
correlacionada con ella, cuya modificación se desea establecer por una cierta variable
independiente.
2. Con base en los puntajes obtenidos por los sujetos en la prueba mencionada en el
paso anterior, se forman pares de sujetos con puntajes iguales o con pequeñas
diferencias entre sí.
3. De cada par, se asigna un sujeto al grupo que será el grupo experi mental y el otro al
que será el grupo de control (puede haber más de un grupo experimental).

Eduardo Velázquez | www.articulando.com.uy Página 84


Metodología General de la Investigación. Reglamentada. 2013

4. Se aplica el tratamiento (por ejemplo, una exposición sobre las funciones de la política
en la sociedad) al grupo experimental y, si es necesario, un placebo al grupo de
control.
5. Como medición “después” se aplica a los dos grupos la misma prueba de la
medición “antes”, o una prueba equivalente a ella.
6. Finalmente se comparan las diferencias entre los valores “después” de los dos grupos.

Todos los diseños que hemos presentado hasta aquí trabajan con una sola variable
independiente. Sin embargo, se debe tener en cuenta que en muchas investigaciones se
utilizan dos o más variables independientes, con el propósito de determinar los efectos
combinados de ellas en la variable dependiente del caso.

Investigaciones cuasiexperimentales
En todos los diseños experimentales, propia mente tales, la asignación a los grupos
experimentales y de control se realiza en forma aleatoria, con la finalidad principal de lograr
una igualación, lo más cercana posible, de las características de los sujetos que conforman
esos grupos. Esto, en definitiva, para descartar variables (propiedades) distintas a la variable
independiente cuyo efecto particular se desea establecer en la variable dependiente.

Con toda la importancia que tiene la aleatorización de los grupos, en muchas circunstancias no
es posible cumplir con el propósito de control señalado anterior mente. Sin embargo, como
lo han señalado Campbell y Stanley, en ausencia de esa posibilidad, aún es posible realizar
experimentos que pueden tener validez interna y externa, si bien no eliminan todos los
factores que las debilitan. De manera general, los diseños en los cuales no se ha podido
utilizar el azar en la formación de los grupos reciben el nombre de diseños cuasi-
experimentales, de los cuales presentamos los de mayor utilización.

a) Diseño con un grupo de control no equivalente.

Es un diseño que se utiliza, no exclusivamente, con grupos naturales, como el constituido por
los alumnos de un cierto grado o de una cierta escuela, personas que han sido sometidas a
una intervención social (de la cual se podría tomar una muestra), etc. Tales grupos forman el
grupo experimental; el grupo de control se forma con sujetos, no elegidos al azar, que tengan
características muy semejantes a los sujetos del grupo experimental.

La principal debilidad del diseño es la no aleatorización de los grupos, en la medida que el


grupo de control sea diferente del grupo experimental, más allá de la diferencias debidas al
azar. En esa medida, no podrán controlarse los factores extraños cuyos efectos podrían
confundirse con el efecto de la variable independiente, que es el foco de la investigación. Esta
situación, sin embargo, puede resolverse, en buena proporción, con el uso del análisis de la
covarianza en el trata miento final de los datos, con la elección de una covariable adecuada.

b) Diseño de series cronológicas.

Es un diseño cuasiexperimental que no requiere de grupo de control. Consiste en una serie de


mediciones periódicas que se hacen en las personas en estudio, antes y después que se ha
introducido la variable experimental.

Eduardo Velázquez | www.articulando.com.uy Página 85


Metodología General de la Investigación. Reglamentada. 2013

El principal problema de este diseño es el factor denominado historia, constituido por la


influencia que pudieron tener factores externos al experimento, ocurridos durante su
desarrollo. Otro problema tiene que ver con la elección de las técnicas de análisis que
permitan establecer el efecto de la variable independiente en los sujetos del estudio. La mejor
fórmula es el análisis de la varianza, que compara el pro medio de los valores “antes” de la
introducción de la variable independiente con el pro medio de los valores “después”.

Investigaciones no experimentales
Las investigaciones no experimentales son aquellas en las cuales el investigador no tiene el
control sobre la variable independiente, que es una de las características de las
investigaciones experimentales y cuasiexperimentales, como tampoco conforma a los grupos
del estudio. En estas investigaciones, la variable independiente ya ha ocurrido cuando el
investigador hace el estudio. O sea, ha ocurrido un cierto fenómeno, que es tomado como
variable independiente (por ejemplo, la exposición a la televisión) para un estudio en el cual el
investigador desea describir esa variable como también los efectos que provoca sobre otro
fenómeno, que es la variable dependiente (por ejemplo, conductas delictivas). Por esta
característica distintiva en lo que se refiere a la ocurrencia de la variable independiente, las
investigaciones en las que se da esta circunstancia reciben el nombre de investigaciones ex
post facto (después del hecho).

A este tipo de investigaciones pertenecen, entre las principales, la encuesta social, el estudio
de casos, el estudio de cohortes, la observación estructurada, la investigación- acción
participativa y la investigación evaluativa.

Encuestas seccionales y longitudinales


La encuesta seccional es aquella que se realiza en una cierta población o en una muestra de
ella en un período corto de tiempo. Son estudios sincrónicos, en un mismo tiempo.
Corresponden a “fotografías instantáneas” que se toman en un momento dado. El nombre de
seccionales proviene del hecho de que la encuesta entrevista a personas que pertenecen a los
principales estratos del colectivo estudiado. Los casos típicos los constituyen las encuestas de
opinión pública.

La encuesta longitudinal, a diferencia de la anterior, es un estudio diacrónico , es decir, un


estudio que sigue en un cierto período de tiempo el desarrollo del fenómeno estudiado. Este
desarrollo puede hacerse en un período ya pasado, y se tiene, entonces, un estudio
longitudinal retrospectivo. Por ejemplo, la reconstitución de la historia ocupacional de una
cohorte de personas. La limitación de estos estudios –no insalvable– es el olvido de las
personas de las situaciones estudiadas.

Los estudios longitudinales prospectivos , constituidos por estudio de seguimiento de


cohortes, por seguimiento de paneles (un mismo grupo heterogéneo), analizan los cambios
que se producen en los sujetos en un cierto período de tiempo (a veces, bastante largo)
mediante entrevistas sucesivas o con datos provenientes de otras fuentes.

Etapas de la encuesta

Eduardo Velázquez | www.articulando.com.uy Página 86


Metodología General de la Investigación. Reglamentada. 2013

1. Formulación de un problema de investigación y del marco problemático o teórico en el


cual se da ese problema.
2. Formulación de objetivos descriptivos o explicativos. Estos últimos deberían
formularse como hipótesis, es decir, como relaciones supuestas entre variables o bien
como hipótesis estadísticas.
3. Determinación de la cobertura de la encuesta. Esta etapa comprende tareas como
definición de la población en la cual se tomará la información para el estudio:
a. en términos geográficos
b. en términos demográficos
c. en términos temporales

En esta etapa se debe decidir si la encuesta será o no de cobertura total. En el primer caso,
se recoge la información pertinente de toda la población o universo de estudio. En el segundo,
hay que determinar el tipo y tamaño de la muestra que se va a utilizar, como también los
criterios que se emplearán para tratar los casos de rechazo por parte de las personas,
direcciones no existentes, etc.

4. Determinación de las variables necesarias para:


a. cubrir los objetivos de la investigación;
b. permitir la comparación entre subgrupos de la población estudiada;
c. permitir la medición de variables;
d. construir variables complejas.
5. Construcción de los instrumentos para recoger la información. Sin perjuicio de otros, el
instrumento básico es un cuestionario con preguntas abiertas o cerradas que
corresponden a las variables anterior mente mencionadas. Si el estudio comprende la
medición de una variable mediante una determinada técnica, como podría ser una
técnica Likert, se deben incluir las proposiciones pertinentes, con sus respectivas
gradaciones de aceptación o rechazo (acuerdo, desacuerdo, etc.).
6. Prueba de los instrumentos elaborados en un grupo relativa mente pequeño, de
características semejantes a las de la población que se va a estudiar.
7. Trabajo de campo. Si la información se va a recoger mediante entrevistadores, estos
deben capacitarse debida mente con anterioridad a su salida a terreno. Una vez
iniciada la recolección de información con el cuestionario, hay que supervisar el
trabajo que se va realizando, controlando un cierto nú mero de las entrevistas hechas
por los entrevistadores.
8. Control de la calidad de la información recogida y procesa miento. A medida que se va
haciendo la recolección de la información, es necesario revisar los cuestionarios, para
determinar preguntas sin respuestas, inconsistencia entre unos datos y otros,
ambigüedad en las contestaciones, etc. Si procede, se deben repetir las entrevistas o,
bien, eliminar las preguntas con problemas. El procesamiento de la información
comprende la preparación de un código para clasificar las respuestas y su aplicación a
cada cuestionario.
9. 9. Análisis e interpretación de los resultados. La última etapa de la encuesta la
constituye el análisis de los datos y su interpretación. El análisis, que se hace con base
en un “plan de análisis” previa mente preparado, comprende, básica mente, el estudio
de los resultados estadísticos obtenidos con los datos. Son las “respuestas

Eduardo Velázquez | www.articulando.com.uy Página 87


Metodología General de la Investigación. Reglamentada. 2013

cuantitativas” a las preguntas y objetivos de la investigación: tablas de frecuencia,


cuadros de doble entrada, asociaciones, correlaciones, etc. La interpretación no tiene
el significado que se le da en la investigación cualitativa. Comprende comparaciones
entre resultados, evaluación de magnitudes, consecuencias de ellas, relaciones con el
marco problemático, probables consecuencias de los resultados, etc. En la
investigación explicativa, el análisis comprende la explicación de relaciones entre las
variables entre las cuales se ha constituido una o más hipótesis.
10. Informe final. Este informe comprende la exposición del problema estudiado, su marco
teórico o problemático, la población o muestra estudiada, período en el cual se
realizó el trabajo de campo, la metodología empleada, problemas encontrados y los
resultados obtenidos por el análisis, las explicaciones que procedan, etc. Como
anexos van los cuestionarios empleados y otros instrumentos usados en la recolección
de los datos.

Eduardo Velázquez | www.articulando.com.uy Página 88

Das könnte Ihnen auch gefallen