Sie sind auf Seite 1von 70

Pilares de la investigación científica

La investigación en las Ciencias del Comportamiento, las Ciencias Sociales y las


Ciencias de la Salud se construye sobre tres pilares básicos (Kline, 2011; Pedhazur y
Smelkin, 1991):

 La MEDIDA se refiere a la identificación y definición de las variables


(observables o latentes) objeto de investigación y la generación de datos empíricos
(numéricos o categóricos) que son la entrada de los procedimientos de análisis
estadístico.
 El DISEÑO es un plan estructurado para abordar un problema de investigación
con el objeto de obtener resultados rigurosos, libres de sesgo y generalizables, con
el menor esfuerzo posible.
 El ANÁLISIS concierne a la estimación de parámetros y la prueba de hipótesis
estadísticas acerca del objetivo de investigación planteado.

Fases del proceso de investigación


Siguiendo al profesor Arnau (1990, pp. 12-18), se describe el proceso de investigación
distinguiendo tres fases o niveles en su aplicación, en correspondencia con las secciones
del informe de investigación recomendados por la APA:

 NIVEL TEÓRICO-CONCEPTUAL, donde se introduce el problema de


investigación y se delimitan los objetivos e hipótesis (primarias y secundarias)
susceptibles de comprobación empírica en relación con el marco conceptual
donde se generó el problema.
 NIVEL TÉCNICO-METODOLÓGICO, donde se describe el diseño de la
investigación, incluyendo la definición de las variables experimentales
(independiente/s y dependiente/s) y de las variables extrañas o covariantes
(observadas y no observadas), los procedimientos de control de las variables
extrañas, la selección y características de los sujetos participantes junto con el
tratamiento ético de los mismos, el proceso de asignación de participantes a
grupos, los instrumentos usados y el procedimiento específico seguido para la
recogida de los datos empíricos.
 NIVEL ESTADÍSTICO-ANALÍTICO, donde se utilizan los procedimientos
descriptivos e inferenciales del análisis estadístico o se ajustan modelos
estadísticos (enfoque del modelado estadístico) con el objeto de realizar
inferencias de tipo causal o asociativo sobre los datos empíricos recogidos. La
normativa APA recomienda que, además de los resultados de las pruebas
estadísticas para los efectos observados, se incluyan también medidas de
magnitud del efecto, intervalos de confianza y una descripción (y a ser posible,
tratamiento) de los datos perdidos (missing data ).

Existe de hecho una última fase, que retorna de nuevo a la primera (el nivel
conceptual), donde los resultados obtenidos se comparan con los objetivos planteados y
la/s hipótesis (primarias y secundarias) de investigación, articulándolos dentro de la teoría
que generó el problema. Es imprescindible que la interpretación de los resultados tenga
en cuenta todas las limitaciones detectadas en el estudio.

Estrategias para la investigación empírica


Pueden distinguirse tres estrategias claramente diferenciadas para realizar
investigación empírica en Psicología (véase Ato et al., 2013b, Light et al., 1990), donde
cada una de las estrategias se caracteriza por formular hipótesis específicas, por generar
tipos de diseño determinados y por la consecución de cierto grado de control:

La estrategia manipulativa configura un conjunto de los diseños que son típicos de


la investigación experimental, pues se utilizan alguna forma de hipótesis causal, que se
formula genéricamente con el argumento ’X es la causa de Y’. Se requieren al menos dos
grupos de unidades experimentales, un grupo que recibe el tratamiento (también llamado
GRUPO EXPERIMENTAL o GE) y otro que no lo recibe o al que se administra un
fármaco alternativo (llamado GRUPO CONTROL o GC).

Las estrategias asociativas y descriptivas conforman un conjunto de los diseños que


son típicos de la investigación no experimental. La primera utiliza alguna forma de
hipótesis de covariación, que se formulan con el argumento ’X se relaciona
funcionalmente con Y ’, mientras que en la segunda, en general, no se formulan hipótesis
(causales o de covariación), sino que se limitan a describir las características de las
variables que son objeto de interés.

Unidad experimental, unidad de observación y unidad de muestreo


 Unidad experimental, que es el elemento más pequeño al que puede asignarse un
tratamiento.
 Unidad de observación, es simplemente el elemento más pequeño sobre el que se
registra (o se mide) la respuesta.
 Unidad de muestreo, que es un elemento seleccionado de una población de origen.

Inferencia causal
Se somete a prueba una hipótesis que asume una relación causa-efecto entre al
menos un Tratamiento o programa de intervención (la supuesta causa) y una Respuesta
(el supuesto efecto).

Kline (2009) sintetiza la propuesta de varios autores y señala que deben cumplirse
tres condiciones antes de poder hablar de causalidad:

 Antecedencia temporal: la supuesta causa debe ocurrir antes que el supuesto


efecto.
 Asociación: hay una covariación observable entre la presunta causa y el presunto
efecto.
 Aislamiento: no hay ninguna otra explicación posible (variables extrañas) sobre
la presunta relación entre la presunta causa y el presunto efecto.

El experimento como modelo de investigación


El diseño experimental típico posee dos propiedades distintivas esenciales, a saber:

 MANIPULACIÓN activa de (al menos) una variable independiente por parte del
investigador. La manipulación se entiende como facultad del investigador para
variar a voluntad los niveles de tratamiento (programa o intervención) que
representa la variable independiente.
 ALEATORIZACIÓN, o utilización de una regla de asignación aleatoria para
distribuir las unidades experimentales entre los niveles de tratamiento, evitando
la presencia de sesgos.

Para profundizar en las diferencias entre diseño experimental, cuasiexperimental y


no experimental, Judd y Kenny (1981a) han distinguido entre tres diferentes REGLAS
DE ASIGNACIÓN de unidades experimentales a los tratamientos:

 Regla de asignación aleatoria: las unidades experimentales se asignan al azar a los


grupos. En esta situación se asume que los diferentes grupos de unidades que
reciben los tratamientos son equivalentes antes de administrar el tratamiento.
 Regla de asignación no aleatoria, pero sí conocida: las unidades experimentales
se asignan a los tratamientos en función de una puntuación de corte (p.e., la
puntuación obtenida en un pretest). En este caso, los grupos no se asumen iguales,
pero la probabilidad de asignación de unidades experimentales, y por ende las
diferencias iniciales entre los grupos, se conoce perfectamente.
 Regla de asignación no aleatoria ni conocida: no se conoce, ni puede conocerse
con exactitud, cómo difieren entre sí los grupos de unidades antes de administrar
el tratamiento.

Estas reglas asumen la existencia de una variable de asignación, que representa una
probabilidad conocida e igual para todas las unidades experimentales (o sea, una
constante) en el caso (a), una puntuación de corte que representa la pertenencia a grupo
(o sea, una variable binaria) en el caso (b) y una variable extraña desconocida en el caso
(c).

Aunque se recomienda la aplicación de las dos etapas aleatorias en la investigación


experimental, la selección aleatoria se emplea sólo para extraer al azar un conjunto de
unidades experimentales de una población, mientras que la asignación aleatoria se utiliza
para distribuir al azar las unidades entre los dos grupos. Con la primera se persigue que
las unidades experimentales sean representativas de su población de origen, objetivo
fundamental de los diseños selectivos, y afecta en lo fundamental a la validez externa de
la investigación, pero no es común su aplicación en diseños experimentales. Con la
segunda se persigue que las unidades experimentales se distribuyan aleatoriamente entre
los grupos para asegurar la igualdad de los grupos ante de la administración del
tratamiento, evitando así los SESGOS DE SELECCIÓN, objetivo primario del diseño
experimental, y afecta en lo fundamental a la validez interna.

En el diseño experimental más simple, donde sólo hay un grupo de unidades


experimentales que recibe tratamiento (GE) y otro grupo que no lo recibe (GC), la
asignación aleatoria de unidades experimentales al GE y GC reparte de forma homogénea
las unidades experimentales entre los dos grupos antes de la administración del
tratamiento. Como consecuencia, es bastante probable (en particular si se dispone de un
tamaño muestral numeroso) equilibrar los grupos en todas las variables extrañas,
observables o no observables. Éste es un contexto óptimo para estimar efectos de
tratamiento libres de sesgo sistemático.

Técnicas de control de variables extrañas

En ocasiones el efecto de una variable extraña puede distorsionar sistemáticamente


los resultados en un grupo/tratamiento respecto de otro, produciendo entonces sesgo
sistemático, y en otras ocasiones puede afectar a la variación de la variable dependiente
incrementando la varianza de error, o sea, la variación no atribuible al efecto de la/s
variable/s independiente/s. Sesgo sistemático y error aleatorio pueden incluso actuar de
forma combinada, generando el peor de los escenarios posibles para interpretar un efecto
de tratamiento. De ahí la importancia de que el investigador sepa reconocer la presencia
de confundidores e introduzca técnicas de control apropiadas para corregir sus efectos.

Las técnicas de control de variables extrañas difieren en función de si los efectos de


tratamiento tienen naturaleza transversal (o sea, se estiman en una ocasión temporal
determinada), o longitudinal (o sea, se estiman a lo largo del tiempo). Hay tres técnicas
básicas de control de naturaleza transversal:

 ELIMINACIÓN de una variable extraña, que consiste simplemente en suprimirla


de la situación experimental.
 CONSTANCIA, que implica emplear un único Nivel de la variable extraña.
 EQUILIBRACIÓN, cuyo objeto es distribuir el efecto de las variables extrañas
entre los grupos.

La equilibración es la técnica de control más común para corregir o reducir el sesgo


de selección, o sea, la existencia de grupos no iguales antes de comenzar el tratamiento.
Hay dos formas básicas para intentar igualar el efecto de las variables extrañas entre los
grupos: mediante el control experimental, que son un amplio conjunto de técnicas que se
introducen durante la etapa de diseño de la investigación, o mediante el control
estadístico, que son técnicas de control que se introducen durante la etapa de análisis
estadístico de los datos.

La más importante técnica de control experimental es la ALEATORIZACIÓN, que


se asume tanto más efectiva cuanto mayor es el tamaño muestral y más objetiva es la
forma concreta de aplicarla. En el caso ideal, su principal virtud es la distribución de todas
las variables extrañas (observadas y no observadas) entre los grupos de tratamiento, no
afectando diferencialmente a un grupo respecto de otro. Su principal desventaja es que la
composición de los grupos mediante aleatorización usualmente genera grupos de
participantes muy heterogéneos.

Desgraciadamente, para muchos problemas de investigación no es aplicable o no es


ético aplicar la técnica de aleatorización. Si el investigador conoce qué variables extrañas
pueden estar interviniendo en tales casos, hay dos técnicas de control por equilibración
que pueden acaparar su atención para intentar reducir el error aleatorio y minimizar el
sesgo sistemático, a saber:

 BLOQUEO, que consiste en formar conjuntos homogéneos de participantes para


cada uno de los niveles de al menos una variable extraña y asignarlos después (de
forma aleatoria o no aleatoria) a las condiciones de tratamiento dentro de cada
bloque. Esta acción produce como resultado la introducción de la variable extraña
(categorizada) como un nuevo factor en el diseño de investigación. Si la
asignación de participantes de un conjunto homogéneo a los grupos es aleatoria el
diseño será experimental; si no es aleatoria, el diseño será cuasiexperimental
(siempre que sea el experimentador quien defina la naturaleza de los grupos) o
comparativo (si los grupos ya se han definido y el experimentador no tiene control
alguno sobre su producción).
 EMPAREJAMIENTO, que trata de conseguir, disponiendo de una muestra de
participantes para un grupo (p. ej., el GE), participantes con las mismas
características en un conjunto de variables extrañas para asignarlos a otro/s
grupo/s (p. ej., un GC). El emparejamiento es la técnica de control experimental
más versátil, porque se puede practicar tanto de forma individualizada (o sea,
emparejando caso a caso para formar los grupos) como de forma grupal o
generalizada (o sea, emparejando los grupos en su conjunto).

Sin embargo, a veces el control experimental no es posible o no se ha podido conseguir


un control efectivo. Cuando se utilizan grupos naturales, la única forma de
emparejamiento posible es el emparejamiento post-hoc (o sea, la constitución de un grupo
de control una vez que el tratamiento ha tenido lugar). Como alternativa al control
experimental, el control estadístico persigue el mismo objetivo que la equilibración, pero
utilizando procedimientos estadísticos para ajustar la desigualdad entre los grupos de
tratamiento. Las técnicas de control estadístico más relevantes son:

 Residualización, que consiste en controlar la influencia de al menos una variable


extraña conocida eliminando de la variable de respuesta lo que explica la variable
extraña. Se practica comúnmente con los coeficientes de correlación (y
determinación) parcial y semiparcial. Por ejemplo, R2Y X.Z es el coeficiente de
determinación parcial entre X e Y una vez que se ha eliminado de X y de Y el
efecto de Z, y R2Y (X.Z) es el coeficiente de determinación semiparcial entre X e Y
una vez eliminado de X, pero no de Y, el efecto de Z. La idea se generaliza a más
de una variable extraña.
 Ajuste de regresión mediante ANCOVA es la técnica de control estadístico más
usada. Consiste en introducir una (o más) variable/s extraña/s de naturaleza
numérica (continua o discreta), con el objeto de controlar su efecto eliminando la
varianza que explica de la variable de respuesta. La selección de las variables
extrañas y su relevancia como variables de control son la cuestión crucial para que
este procedimiento sea efectivo.

Validez de la investigación

La ventaja de la investigación experimental es la creación de unas condiciones


óptimas para posibilitar la inferencia causal. Su debilidad fundamental es el grado en que
se puede generalizar tal inferencia. Otras alternativas a la investigación no experimentales
se proponen lograr el máximo acercamiento posible a las propiedades de la investigación
experimental. Para valorar la calidad de la inferencia y el grado de generalización de la
misma, Shadish et al. (2002), desarrollando ideas inicialmente planteadas por Campbell
y Stanley (1963, 1966), y posteriormente elaboradas por Cook y Campbell (1979),
propusieron un esquema de la validez de la investigación que distingue cuatro tipos de
validez, los dos primeros relacionados con la validez de la inferencia causal y los dos
últimos con la generalización de la inferencia. El esquema de la validez se articula con
los tres pilares que consideramos entorno a las mismas cuestiones que un investigador
debe plantearse cuando realiza una investigación.

 Validez de la conclusión estadística: Se refiere esencialmente a dos inferencias


estadísticas relacionadas que pueden afectar a la relación entre las supuestas
variables causa y efecto, en concreto: 1) ¿covarían las variables causa y efecto?,
y 2) en caso de que covaríen, ¿cuál es la magnitud empírica de su covariación?

**Para la primera de las inferencias, se puede concluir de forma incorrecta que causa y
efecto covarían cuando de hecho no covarían (en cuyo caso se comete un error tipo I) o
concluir también incorrectamente que no covarían cuando de hecho sí lo hacen (en cuyo
caso se comete un error tipo II). Para la segunda de las inferencias, al obtener una
estimación de la covariación, se puede subestimar o sobreestimar la magnitud de la
covariación.
El medio más establecido de determinar si causa y efecto covarían es el contraste
de hipótesis, donde se compara una hipótesis nula contra una hipótesis alternativa y se
determina mediante una prueba estadística la probabilidad de rechazar la hipótesis nula
bajo el supuesto de que es verdadera. Por ejemplo, si se desea utilizar la prueba de t para
determinar si difieren las medias empíricas de dos grupos (GE y GC), la hipótesis nula
establece que la diferencia entre las medias es nula en la población de donde tales medias
empíricas se han extraido. La prueba produce un valor empírico del estadístico t (que se
asume distribuido según una distribución t de Student), y se acompaña de un argumento
de probabilidad (por ejemplo, p = .015), que es la probabilidad de que una diferencia
absoluta entre medias como la empíricamente obtenida haya ocurrido por azar en una
población donde se asume que la diferencia es nula.

Siguiendo una sugerencia de Fisher (1926), es común describir este resultado de


forma dicotómica, es decir, como estadísticamente significativo si p ≤ .05, o
estadísticamente no significativo si p > .05, dado un criterio prefijado de α = .05. Del
mismo modo se decide con otros criterios comúnmente aceptados (por ejemplo, el criterio
α =.01).

Una larga controversia ha existido en torno a las pruebas de significación, y la


elección de los criterios del .05 y del .01 para aceptar o rechazar hipótesis nulas es usual
dentro del enfoque NHST (Null Hypothesis Significance Testing’). Pero en lugar de
presentar un argumento de significación basado en criterios establecidos, actualmente se
prefiere presentar los resultados bajo la forma de tamaños de efecto e intervalos de
confianza en torno a los estimadores de los parámetros y los tamaños del efecto.

**Cabe notar que la conclusión estadísticamente significativo es un argumento que sólo


hace referencia a la probabilidad de una hipótesis, pero no a la relevancia práctica del
resultado obtenido. Todas las pruebas estadísticas se construyen utilizando como
numerador la diferencia observada (en el caso más simple, una diferencia de medias) y
como denominador el error típico de la diferencia. En general, cuanto mayor sea la
diferencia observada mayor será la probabilidad de ser significativa, pero la conclusión
depende también del error típico, que a su vez depende del tamaño muestral. Si el tamaño
muestral es pequeño, el error típico tiende a ser grande y más grande habrá de ser la
diferencia entre medias para resultar significativa; si el tamaño muestral es grande, el
error típico tiende a ser pequeño y más pequeña será la diferencia entre medias para
resultar significativa.
No es aconsejable fundamentar la interpretación de los resultados de investigación
en su significación estadística, ya que pueden obtenerse resultados significativos con
diferencias de escasa importancia científica o práctica y resultados no significativos con
diferencias de alta relevancia científica y práctica. Por tanto, a la hora de valorar los
resultados de una investigación debe considerarse también si el tamaño de la diferencia
es científica o prácticamente relevante. La interpretación conjunta de la significación
estadística y la magnitud de la diferencia permite aproximar la significación práctica del
resultado. Esta es la razón por la que resulta más conveniente un informe de los resultados
a base de un intervalo de confianza (que incluye una estimación puntual de la diferencia
y su error típico) más que un argumento de probabilidad, que concluir si la prueba resultó
o no significativa.

 Validez interna: Utilizamos el término validez interna para hacer referencia a


inferencias acerca de si la covariación observada en un efecto (Y) se ha producido
debido a cambios en el nivel o intensidad de una variable explicativa (X) y no por
otras fuerzas causales alternativas. La forma más común de inferir de causa a
efecto consiste en eliminar esas otras causas posibles (terceras variables, variables
extrañas, confundidores o variables espurias) que podrían haber ocurrido en
presencia o en ausencia de la variable explicativa y ser responsables el efecto
observado.

La presencia de variables espurias o de confundido en una investigación reducirá


la validez interna de la investigación, mientras que su ausencia se asocia con alta
validez interna. La asignación aleatoria de unidades experimentales a
tratamientos es por ello el procedimiento metodológico más efectivo para lograr
que un diseño tenga alta validez interna, porque elimina los sesgos de selección y
genera una situación donde es improbable que existan efectos de confundido.
Entre sus propiedades destacan (Anderson et al., 1980, p. 32-35) las siguientes:

— La asignación aleatoria implica en general una distribución similar de las


características de los participantes en cada grupo, antes de administrar el
tratamiento, y por tanto facilita la inferencia causal en mayor medida cuanto
mayor sea el tamaño muestral.

— La asignación aleatoria elimina el sesgo de selección. Si una muestra


seleccionada de una población se asigna a grupos mediante una regla de
asignación aleatoria, es bastante improbable que los sesgos de selección puedan
intervenir. Aunque es posible que ambos grupos no queden perfectamente
equilibrados en alguna característica antes de administrar el tratamiento, esta
posibilidad es tanto menor cuanto mayor es el tamaño de los grupos.

— La asignación aleatoria proporciona un fundamento para la inferencia


estadística al equilibrar los grupos antes de la administración de los tratamientos.

Validez de la conclusión estadística y validez interna se relacionan estrechamente.


Ambas se ocupan de analizar las operaciones de causa y efecto respecto de los
constructos que se supone que representan.

 Validez de constructo: Las teorías psicológicas se definen en términos de


conceptos teóricos y constructos hipotéticos que no pueden ser directamente
observados o medidos. Con el fin de ser sometidos a prueba empírica, los
constructos abstractos tienen que ser traducidos en indicadores tangibles
susceptibles de observación y medida. Este proceso se denomina
operacionalización. La validez de constructo se refiere precisamente a la
capacidad de generalizar de indicadores tangibles a sus constructos de referencia,
en otras palabras, representa una forma de generalizabilidad de los resultados
observados de un estudio empírico al marco conceptual en que se inserta.
 Validez externa: Se refiere a la cuestión de si un efecto observado en un contexto
de investigación puede ser observado en otros contextos, con diferentes
participantes, con otros tratamientos y respuestas distintos y con diferentes
procedimientos de investigación. Tiene que ver con la replicabilidad empírica del
fenómeno, es decir, con la posibilidad de que pueda ser reproducido en las mismas
condiciones en que originalmente se produjo.
Se ocupa de aquellas situaciones donde suelen producirse interacciones
estadísticas que generan inferencias incorrectas de generalización de los
resultados de un estudio a diferentes personas, contextos, tratamientos y
respuestas. En tales situaciones, la investigación sólo es representativa de las
personas, contextos, tratamientos y respuestas empleados, lo que limita
severamente su generalidad.
Planteamiento del problema

Consiste en describir de manera amplia la situación objeto de estudio, ubicándola


en un contexto que permita comprender su origen, relaciones e incógnitas por responder.

Formulación del problema

Es la concreción del planteamiento en una pregunta precisa y delimitada en cuanto


a espacio, variables y población.

Características:

 Se debe formular en forma de pregunta y obviar términos que impliquen juicios


de valor.
 La pregunta no debe originar respuestas como un simple si o un no.
 La respuesta a la pregunta debe aportar un nuevo conocimiento.
 Debe existir la posibilidad de ser respondido mediante procedimientos empíricos.
 Puede referirse al comportamiento de una variable o la relación entre dos o más
variables.

Objetivos de investigación

Es un enunciado que expresa lo que se desea indagar y conocer para responder a un


problema planteado.

Características de los objetivos de investigación:

 Precisan las variables o dimensiones que serán medidas.


 Delimitan el problema de la investigación.
 Se redactan comenzando con un verbo en infinitivo.

Tipos de objetivos de investigación:

 Objetivo general: Expresa el fin concreto de la investigación en correspondencia


directa con la formulación del problema.
 Objetivos específicos: Indican con precisión los conceptos, variables o
dimensiones que serán objeto de estudio. Se derivan del objetivo general y
contribuyen al logro de éste.
Hipótesis

Es una suposición que expresa la posible relación entre dos o más variables, la cual
se formula para responder tentativamente a un problema o pregunta de investigación.
Orientan la investigación, indicando al investigador dónde debe iniciar su labor de
verificación mediante la recolección de los datos o para generar nuevas teorías.

Las hipótesis se desprenden de la teoría, es decir, no surgen de la simple


imaginación sino que se derivan de un cuerpo de conocimientos existentes que le sirven
de respaldo (Arias, Fidias; 2004).

Hipótesis de investigación: Es la suposición que se aspira verificar o comprobar.


También se le denomina hipótesis de trabajo. Éstas se clasifican en:

 Explicativas: Expresan la posible causa de un hecho.

Ejemplo: “A fue ocasionado por B”

 Predictivas: Plantean el posible efecto o consecuencia de un hecho. Deben


redactarse empleando verbos en futuro:
Ejemplo: La aplicación del tratamiento X disminuirá el nivel de colesterol en la
sangre."
 Comparativas: Contrastan resultados o características de grupos en condiciones
diferentes.
o Direccional: Indica la tendencia de los resultados.
Ejemplo: "El grupo A obtendrá mayor puntaje que el grupo B."
o No direccional: No indica tendencia, sólo expresa la posible diferencia entre
los resultados esperados.
Ejemplo: "Existirá una diferencia entre el puntaje del grupo A y el puntaje
del grupo B."
 Correlacionales: suponen una posible relación estadística entre variables
cuantitativas.
Ejemplos: "A mayor X, mayor Y." "A menor X, mayor Y."
 Descriptivas: indican una probable relación no causal entre variables cualitativas.
Ejemplo: "A diferencia de las mujeres, los varones prefieren ocupar su tiempo
libre en actividades deportivas."
Hipótesis alternativas: Son aquellas que plantean opciones distintas a la hipótesis de
trabajo o de investigación.

Hipótesis nula: Es la que niega lo supuesto en la hipótesis de investigación. En el caso


de comparación de grupos, expresa que no existen diferencias significativas entre los
resultados obtenidos por éstos. Así mismo es contraria a la hipótesis no direccional.

¿Cómo redactar las hipótesis?

Mientras la formulación del problema adopta la forma interrogativa, las hipótesis se


redactan de manera afirmativa, excepto la hipótesis nula, que niega la hipótesis de
investigación. Claro está, dicha afirmación, como toda hipótesis, debe ser sometida a
prueba para poder llegar a una conclusión.

Ejemplo de hipótesis de investigación:

Hi: "El grupo A obtendrá mayor puntaje en la prueba de razonamiento numérico


que el grupo B."

Ejemplo de hipótesis nula:

Ho: "No existirá diferencia entre el puntaje del grupo A y del grupo B en la prueba
de razonamiento numérico.

Además, tenga presente las siguientes recomendaciones para la redacción de


cualquier tipo de hipótesis:

 Evite emplear adjetivos que impliquen juicios de valor, por


 Incluya las variables identificadas en la formulación del problema y en los
objetivos específicos.
 Pueden ser expresadas en términos conceptuales u operacionales.
Conceptos básicos de muestreo

Concepto de población

Una característica del conocimiento científico es la generalidad, de allí que la


ciencia se preocupe por extender sus resultados de manera que sean aplicables a muchos
casos similares o de la misma clase. En este sentido, una investigación puede tener como
propósito el estudio de un conjunto numeroso de objetos, individuos, e incluso
documentos. A dicho conjunto se le denomina población.

La población, o en términos más precisos población objetivo, es un conjunto finito


o infinito de elementos con características comunes para los cuales serán extensivas las
conclusiones de la investigación. Ésta queda delimitada por el problema y por los
objetivos del estudio.

Concepto de muestra y tipos de muestreo:

Cuando por diversas razones resulta imposible abarcar la totalidad de los elementos
que conforman la población accesible, se recurre a la selección de una muestra.

La muestra es un subconjunto representativo y finito que se extrae de la población


accesible. En este sentido, una muestra representativa es aquella que por su tamaño y
características similares a las del conjunto, permite hacer inferencias o generalizar los
resultados al resto de la población con un margen de error conocido.

Para seleccionar la muestra se utiliza una técnica o procedimiento denominado


muestreo. Existen dos tipos básicos de muestreo: Probabilístico o aleatorio y no
probabilístico.

Muestreo probabilístico o aleatorio: es un proceso en el que se conoce la probabilidad


que tiene cada elemento de integrar la muestra. Este procedimiento se clasifica en:

o Muestreo al azar simple: procedimiento en el cual todos los elementos tienen la


misma probabilidad de ser seleccionados. Dicha probabilidad, conocida
previamente, es distinta de cero (0) y de uno (1).
Ejemplo: Valiéndose de la lista de alumnos, el docente asigna un número a cada
uno. Luego todos los números se introducen en una caja para extraer, por sorteo,
los integrantes de la muestra.
o Muestreo al azar sistemático: se basa en la selección de un elemento en función
de una constante K. De esta manera se escoge un elemento cada k veces.
Ejemplo: Para una población de 120 individuos, se define una muestra integrada
por 30 sujetos. La constante K obtenida al azar es igual a 4. Luego se asigna un
número a cada uno de los 120 individuos y se calcula el valor de inicio con la
siguiente fórmula: N/n, entonces 120/30= 4. Esto significa que comenzaremos
seleccionando el número 4 al que se le sumará la constante K=4, y así
sucesivamente hasta obtener los treinta individuos que conformarán la muestra
definitiva: 4, 8, 12, 16, 20…
o Muestreo estratificado: consiste en dividir la población en subconjuntos cuyos
elementos posean características comunes, es decir, estratos homogéneos en su
interior. Posteriormente se hace la escogencia al azar en cada estrato.
Ejemplo: En una institución de educación superior, se divide la población por
carreras o especialidades, las cuales conformarán los estratos. Después se efectúa
la selección aleatoria en cada una de ellas. Muestreo por conglomerados: parte de
la división del universo en unidades menores denominadas conglomerados. Más
tarde se determinan los que serán objeto de investigación o donde se realizará la
selección.

Muestreo no probabilístico: Es un procedimiento de selección en el que se desconoce


la probabilidad que tienen los elementos de la población para integrar la muestra. Éste se
clasifica en:

o Muestreo casual o accidental: es un procedimiento que permite elegir


arbitrariamente los elementos sin un juicio o criterio preestablecido.
Ejemplo: Un encuestador se ubica en un sector y aborda a los transeúntes que
pasan por el lugar. Lógicamente, las personas que no circulen por la zona, carecen
de toda probabilidad para integrar la muestra.
o Muestreo intencional u opinático: en este caso los elementos son escogidos con
base en criterios o juicios preestablecidos por el investigador. Ejemplo: Para un
estudio sobre calidad de la educación, previamente, se establecen como criterios
de selección de la muestra los siguientes:
-Mínimo de 20 años de experiencia en el campo educativo.
-Poseer título de postgrado.
-Haber ocupado un cargo directivo.
Por supuesto, la muestra la integrarán sólo aquellos que cumplan con las
condiciones anteriores.
o Muestreo por cuotas: se basa en la elección de los elementos en función de ciertas
características de la población, de modo tal que se conformen grupos o cuotas
correspondientes con cada característica, procurando respetar las proporciones en
que se encuentran en la población.
Ejemplo: Se establecen como características importantes para un sondeo de
opinión, el sexo y la edad de la población. Luego se procederá a seleccionar cuotas
de hombres, mujeres, jóvenes y adultos.
Epistemología

¿Qué es ciencia?

La ciencia se puede definir desde varios puntos de vista, enfatizando o poniendo de


manifiesto sus diferentes características esenciales en cada caso:

i)Ciencia como proceso, o sea como investigación: Consiste en una secuencia finita,
sistemática y ordenada de actividades encaminadas a resolver algún problema
cognoscitivo, que tiene lugar bajo ciertas condiciones históricas, sociales, culturales,
económicas, políticas, etc. Esta es una dimensión diacrónica y dinámica, porque se da en
y a través del tiempo.

ií)Ciencia como producto, o sea como conocimiento: Puede consistir en datos,


hipótesis y problemas; en el mejor de los casos, puede tomar forma de leyes y teorías.
Esta es una dimensión sincrónica y estática, porque la verdad y el conocimiento no ocupan
espacio, ni tiempo, y una vez formulados en el lenguaje, sólo admiten análisis lingüístico,
semántico, lógico o matemático.

iii)Ciencia como tecnología, o sea ciencia como aplicación del conocimiento para
la solución de problemas extracientíficos. Esta dimensión también es diacrónica y
dinámica.

En toda ciencia, las anteriores tres dimensiones siempre se dan en ese orden
asimétrico en el tiempo: primero, se da la investigación; luego, el conocimiento y después,
la aplicación, si la hubiera. O sea, a la ciencia podemos definirla como un triplo
compuesto por investigación, conocimiento y aplicación del conocimiento, para la
solución de problemas extracientíficos. De estos tres componentes, el tercero no es
indispensable para que una disciplina o teoría sea científica.
Método científico

Un método es científico si consiste en una secuencia finita de reglas claramente


formuladas, estandarizables y repetibles; tal -que, aplicada uniformemente, en forma
correcta, bajo las mismas condiciones, siempre conduzca a los mismos resultados. Por
otro lado, es solo provisional y no definitivo, porque a medida que avanza la ciencia,
cambia la realidad, o se descubren nuevos problemas, por lo que el método también
deberá cambiar y reajustarse. Esto último, también hace referencia a que el método
científico es revisable, perfectible o eventualmente, inclusive refutable y desechable.

Se puede sostener que hay una única forma básica de investigación en las ciencias
e inclusive en la filosofía, consistente en la existencia de una secuencia asimétrica de tres
etapas que subyacen en toda investigación, ya que siempre se parte de un problema que
para solucionarlo siempre hay que plantear una hipótesis, y para saber si la hipótesis es
verdadera o falsa siempre hay que someterla a la contrastación.

La prescripción de que las hipótesis científicas deben ser capaces de aprobar el


examen de la experiencia es una de las reglas del método científico. El método de la
ciencia no es, por cierto, seguro; pero es intrínsecamente progresivo, porque es
autocorrectivo: exige la continua comprobación de los puntos de partida, y requiere que
todo resultado sea considerado como fuente de nuevas preguntas. para el partidario de la
filosofía científica todo es problemático: todo conocimiento fáctico es falible (pero
perfectible). Los científicos no consideran su propia experiencia individual como un
tribunal inapelable; se fundan, en cambio, en la experiencia colectiva y en la teoría.
Definición del concepto de verdad para las ciencias fácticas.

En primer lugar, ya hemos visto que en la ciencia las proposiciones sólo pueden ser
de una de las siguientes cuatro formas básicas: singulares, existenciales, universales y
estadísticas. En segundo lugar, cada una de las primeras tres formas, a su vez, pueden ser
predicativas o relaciónales. Por lo tanto, para definir el concepto de verdad en las ciencias
fácticas será suficiente con definir el concepto de verdad para cada proposición

La Verdad de las proposiciones predicativas en las Ciencias Fácticas

1. Una proposición predicativa singular de la forma P(a) es verdadera en las ciencias


fácticas si y sólo si:

1.1. El objeto único denotado por la constante a existe.

1.2. a tiene la propiedad P, la cual, se establece mediante la observación directa,


indirecta o mediante cualquier otro método científico, por ejemplo, la deducción.

2. Una proposición existencial predicativa de la forma ∃x (P(x) ∧ Q(x)), es


verdadera en las ciencias fácticas si y sólo si x tiene al menos un valor, la existencia de
cuyo referente se ha establecido del mismo modo que en 1, y asimismo, la existencia de
las propiedades P y Q atribuidas a a se han establecido por el mismo procedimiento que
en 1.

3. Una proposición universal predicativa de la forma ∀xP(x) es verdadera en las


ciencias fácticas si y sólo si para n valores de x: a1, a2, a3, an se ha establecido que son
verdaderas y, hasta donde se ha podido comprobar, no se ha encontrado ningún valor de
x que no tenga la propiedad P, es decir, se ha establecido que:

P(a1) ∧ P(a2) ∧ ... ∧ P(an) (1) es verdadera.

De aquí, en forma condicional e hipotética, es decir, mientras no se encuentre un


contraejemplo, y por lo tanto, en forma provisional, se establece que:

∀x P(x) es verdadera.

4. Una proposición estadística P es verdadera en las ciencias fácticas si y sólo si los


datos d1, d2, ... dn tomados de una muestra M de un universo U como valores de las
variables X1 , X2,...,Xn satisfacen al estadístico θo para el parámetro θ del universo U.

De las cuatro formas básicas de proposiciones verdaderas que hay en la ciencia,


singulares, existenciales, estadísticas y universales, toda la carga de la crítica y
caracterización recae esencialmente solo en la última forma, es decir, en las proposiciones
universales, y solo raramente en las proposiciones estadísticas (en tanto éstas sean leyes).

Características esenciales de la verdad científica

1. General.- Es decir, es universal o estadística. Con respecto a la generalidad de


las proposiciones universales, o sea son válidas en todo espacio y tiempo. En cambio las
proposiciones estadísticas, sí las merecen. Pues cuando se afirma que las proposiciones
estadísticas de la ciencia son proposiciones generales, nos referimos a las proposiciones
estadísticas legaliformes. Es decir, nos referimos a las leyes estadísticas de la mecánica
cuántica, de la termodinámica estadística, de la genética, etc.

2. Hipotética.- En la ciencia, del hecho de contrastar una hipótesis universal,


sometiéndola a las pruebas cruciales más difíciles posibles, no se ha encontrado ningún
caso que la refute, por el contrario, todos los casos la han confirmado, de donde se
concluye que la hipótesis es verdadera para todos los casos posibles. Es decir, se parte del
hecho de que, efectivamente, se ha comprobado que vale para algunos casos, y se
concluye que vale para todos los casos posibles, o sea, que vale universalmente.

Los filósofos y científicos tradicionales dirían que en el caso anterior, se concluye


así por inducción. Pero, a partir de las críticas acertadas y lapidarias de Karl Popper, se
sabe que no existe tal especie de inducción, como una inferencia válida. La conclusión de
que vale para todo es sólo hipotéticamente, hasta que se encuentre un contraejemplo. Esto
es, la hipótesis universal, así postulada como ley, en el fondo, hablando estrictamente,
seguirá siendo una hipótesis. Seguirá teniendo carácter hipotético, porque como señala
Popper, es imposible verificar o demostrar la verdad de proposiciones universales.

3.Condicional.- Asimismo, en la contrastación de toda hipótesis universal, se parte


del hecho de que no se haya podido encontrar ningún caso para el cual no se cumpla, se
pasa a la conclusión de que se cumple para todos los casos sólo condicionalmente. Es decir,
solo bajo la condición de que se considerará verdadera hasta mientras nadie encuentre
ningún contraejemplo.

4.Provisional.- Asimismo, en la contrastación de toda hipótesis universal se


establece que es verdadera sólo provisionalmente y nunca definitivamente, porque no es
lógicamente imposible que se pueda encontrar un contraejemplo. Por lo tanto, de aquí
también podemos concluir, a modo de corolario, que toda verdad científica es revisable,
corregible y perfectible.
5.Refutable.- Toda hipótesis universal confirmada es refutable por dos razones:
Primero, porque su negación no es contradictoria, sino es una proposición existencial, que
puede ser verdadera si se encontrara un contraejemplo. Segundo, porque no es
lógicamente imposible encontrar un contraejemplo, tal que, si se encontrara, empleando
la ley de Modus Tollens la hipótesis quedaría automáticamente refutada.

El problema científico

La fuente primaria de los problemas, en general, radica en la existencia de algún


tipo de necesidad que el hombre desea superar, en la necesidad de lograr algún objetivo,
o llegar a alguna meta. De este modo, el problema, en general, consiste en la existencia
de un obstáculo, de un impase, de una barrera o de una dificultad, que le impide lograr
algún objetivo o llegar a alguna meta.

Problemas de la ciencia básica

Son problemas cuya solución tiene como finalidad la adquisición del conocimiento,
la adquisición de la verdad, mediante el método científico. Para que un problema sea
científico es condición necesaria que reúna las siguientes características esenciales:

A) Que tenga solución. Porque si un problema no tiene solución será un problema


filosófico puro o será un pseudoproblema. En consecuencia, si un problema es científico,
tendrá que tener solución inmediata, a un plazo corto, a un plazo mediano o a largo plazo.

B) Que exista método científico para su solución. Y si no existiera, que sea posible
descubrir, inventar, diseñar o construir un método que permita su solución, porque si no
existiera ningún método y tampoco fuera posible descubrir, inventar, diseñar ni construir
ningún método para su solución, dicho problema será un problema metafísico o un
pseudoproblema. Por método se entienden ecuaciones, teorías matemáticas o teorías
empíricas, máquinas o instrumentos físicos.

C) Que tenga un referente ontológico que sea posible reconocer, identificar y ubicar
objetivamente. Es decir, si es un problema fáctico se deberá poder ubicar en algún punto
de alguna coordenada espacio-temporal, a través de indicadores claramente identificables
y reconocibles. Si es un problema formal matemático o lógico, se deberá poder formular
dentro de alguna teoría matemática o lógica. Si no existe el objeto al cual se refiere el
problema, estaremos frente a un pseudoproblema.

D) Que exista una necesidad real de solución. Una necesidad social, pública,
privada, nacional, de toda la humanidad, o cuando menos de la comunidad científica. Más
aun, en las últimas décadas, la tendencia es cada vez más a la de condicionar el
financiamiento de las investigaciones científicas a la utilidad que va proporcionar.

Requisitos para la formulación de los problemas científicos

La formulación correcta de un problema científico debe satisfacer los siguientes


requisitos:

A) Debe ser consistente. La formulación de un problema es consistente


internamente cuando la formulación misma intrínsecamente no es contradictoria o cuando
a partir de dicha formulación no es deducible una proposición que contradice a alguna
otra proposición, ya comprobada de la disciplina, en cuyo contexto se ha formulado u otra
disciplina científica ya comprobada. Si en caso la contradijera y la proposición falsa fuera
la proposición supuestamente comprobada de la otra disciplina, se tendría que hacer
ajustes en dicha disciplina desechando a la proposición falsa; si la proposición falsa fuera
la deducida de la formulación del problema, se tendría que revisar y replantear el
problema.

B) Debe ser exacta y clara. Es decir, debe ser semánticamente unívoca, esto es, debe
tener una sola significación o sentido dentro del contexto donde se la formula, y debe ser
inteligible para toda persona competente en la materia.

C) Debe formularse dentro de un contexto teórico claramente definido, si existe


teoría para el problema que se formula, si no existe teoría a la que pertenece o corresponde
el problema en cuestión, debe especificarse clara y explícitamente la disciplina científica
en cuyo contexto se formula el problema porque los problemas científicos no se plantean
en el aire.

D) Si el problema es compuesto, deberá descomponerse en tantos y cuantos


problemas simples hasta donde sea posible. Aquí, el criterio de simplicidad es gramatical
y lógico. Un problema es simple cuando su formulación consiste en una oración
interrogativa simple. Si el problema es complejo, previamente, antes de descomponerse,
deberá aclararse y precisarse su sentido, estructura, naturaleza y alcance.
Contrastación de hipótesis

¿Qué es contrastar hipótesis? Contrastar hipótesis es oponer, contraponer, comparar


o confrontar lo que dice la hipótesis con los hechos a que se refiere la hipótesis, para ver
si los hechos la verifican, la confirman o la falsan.

La contrastación de las hipótesis tiene que ver con la verdad o la falsedad de las
mismas, porque al contrastar las hipótesis queremos hacerlas verdaderas o hacerlas falsas;
y a su vez, la verdad y la falsedad de las hipótesis depende de dos componentes: un
componente formal y un componente empírico; el componente formal se refiere a la
forma lógica de las hipótesis y el componente empírico se refiere a los distintos métodos
de contrastación con la realidad: observación directa, indirecta, experimentos en
laboratorio, experimento mental, encuestas, trabajo de campo, etc. En consecuencia, para
tratar la contrastación de hipótesis hay que clasificarlas a estas según su forma lógica en:

1. Hipótesis singulares

Para contrastar las hipótesis singulares es suficiente con identificar al sujeto lógico
de la hipótesis mediante la observación o mediante cualquier método científico
intersubjetivo, y segundo, mostrar o demostrar que tiene la propiedad atribuida, y si se
trata de una relación, asimismo, será suficiente con identificar a los dos o más términos
lógicos de la relación y, luego, mostrar o demostrar que existe tal relación.

2. Hipótesis existenciales

Las formas lógicas básicas que pueden asumir las hipótesis existenciales son:

∃X (P(x) ∧ Q(x)) (1)

∃X ∃YR (xy) (2)

Para contrastar una hipótesis de la forma (1) es condición suficiente encontrar


cuando menos un objeto a que tenga la propiedad P y la propiedad Q a la vez, porque:

P(a) ∧ Q(a) (3)

implica lógicamente a (1), para lo cual, se procede como si P(a) y Q(a) fueran
proposiciones singulares, y en realidad, lo son. En cambio, un enunciado de la forma (1),
para un dominio infinito o indefinido, es infalsable, porque para refutarlo habría que
recorrerse todo el universo constatando a cada uno de los objetos para ver si algún objeto
no tiene la propiedad P o la propiedad Q, lo cual, es imposible, como sostiene K. Popper
(1971, p. 67).

3. Hipótesis universales

La contrastación de hipótesis universales se verá más adelante al tratar del


establecimiento de leyes universales.

4. Hipótesis estadísticas

Las hipótesis estadísticas son diversas, no son de una sola forma o de un solo tipo,
por cuanto, depende de qué es lo que se quiere medir, calcular o conocer:

a. Sólo algunos parámetros al nivel de estadística descriptiva: medidas de tendencia


central o medidas de dispersión.

b. Correlación o regresión.

c. Parámetros de la población mediante la estadística inferencial.

En cada caso, la hipótesis se contrasta con los datos empíricos recogidos por
distintos métodos, eligiendo de antemano ciertos intervalos de confianza, que permitan
determinar el nivel de confianza y márgenes de error.
Ley científica

La ley científica es un enunciado que expresa una relación invariante en el espacio


y el tiempo entre dos o más objetos que pertenecen a un determinado dominio definido
de objetos. De este modo, el científico generalmente siempre pretende descubrir
relaciones invariantes entre dos o más fenómenos, hechos o entidades, y no meramente
propiedades. O en todo caso, la forma más importante de definición o caracterización de
una ley científica es como la expresión de la existencia de una relación, porque de esa
manera permite conocer mejor la estructura interna de la realidad, permite sistematizar el
conocimiento cientifico formando teorías y, además, facilita su operacionalización en su
aplicación.

Por otra parte, las definiciones de las leyes científicas pueden ser verbales o
matemáticas. Esto dependerá de la propia naturaleza de la ley.

Los sentidos de la ley científica

Los sentidos más importantes del concepto de ley científica son tres: ontológico,
lingüístico y pragmático.

1. Sentido ontológico.- La ley científica se entiende como una propiedad de las


cosas, o como la relación entre dos o más cosas, como una regularidad objetiva, constante
e invariante, que subsiste en el mundo real, independientemente de quien la conozca,
perciba o la piense.

2. Sentido lingüístico.- Se refiere a su enunciación o formulación lingüística,


matemática o lógica, la cual debe ser sintácticamente consistente y semánticamente
univoca. En este sentido, cuando preguntamos por una ley científica, preguntamos desde
un metalenguaje por un enunciado del lenguaje-objeto.

3. Sentido pragmático.- Este sentido de la ley científica se refiere a su uso como


regla, a su uso en la tecnología o ciencia aplicada para producir artefactos, predecir o
controlar procesos de cambio, o la realización de eventos futuros.

Elementos constitutivos de la ley científica

Los elementos que tipifican o definen a la ley científica son tres: la forma lógica, el
universo de objetos a los cuales se aplica, y su alcance en el espacio y el tiempo.

1. La forma lógica de la ley científica.- Con relación a la forma lógica, a su vez, hay
que examinar dos aspectos:
a) Si con respecto a los objetos a los cuales se aplica la ley, afirma que los objetos
tienen tal o cual propiedad o afirma que dos o más objetos están en tal o cual relación.

b) Si la ley es universal, en tal caso, a su forma lógica se enunciará con el


cuantificador universal. Si la ley no es universal, por ejemplo, estadística, se empleará el
cuantificador existencial o su forma será lógicamente indeterminada.

Ahora, examinaremos, separadamente, estos dos aspectos de la ley científica.

a) Para tipificar a la enunciación de una ley científica como una proposición


predicativa o proposición relacional partimos del presupuesto ontológico de que en el
universo hay individuos y que estos tienen propiedades. Por otro lado, si nos quedáramos
solo en este nivel de análisis o sí el universo consistiera de individuos solo con
propiedades, el universo consistiría algo así como un universo de mónadas leibnizianas,
de un universo donde entre los individuos no hay ninguna relación. Pero el hecho es que
los individuos no solo tienen propiedades, sino que, entre ellos hay una infinita variedad
de relaciones.

De esta manera, por su forma lógica, una ley científica será o un enunciado
predicativo o un enunciado relacional, o un enunciado mixto o complejo, o sea un
enunciado que afirme la existencia de propiedades y relaciones a la vez, siendo en la
práctica este último caso la que tiene mayor lugar.

b) Veamos, ahora el problema de la universalidad de las leyes científicas. En


general, podemos hacer las siguientes distinciones con respecto a la universalidad de las
leyes de la ciencia:

- La universalidad puede ser con respecto al tiempo y al espacio, como las leyes de
la física y de la química (inorgánica).

- La universalidad puede ser con respecto solo al tiempo.

La lógica -la lógica clásica- básicamente solo permite analizar y mostrar la


universalidad del primer tipo, o sea, la universalidad de las leyes científicas con respecto
a su universo de objetos a los cuales se aplican. Así, dada una ley L, si su universo de
objetos a los cuales se aplica es U = {a1, a2,… an}, L será una ley universal, si L se aplica
a todos los elementos del universo U sin excepción.

E n cambio, si una ley científica no es universal, es estadística. Así, todas las leyes
estadísticas son existenciales, porque una ley estadística afirma que algunos (20%, 45%,
75%, etc.) elementos del universo de objetos a los cuales se aplica tienen una propiedad
o están en una relación. Es decir, todas las leyes estadísticas son existenciales con respecto
al alcance de los objetos de su universo de discurso, o sea, en el espacio, pero son
universales con respecto al tiempo -como las leyes de la mecánica cuántica- . Si no fuera
así no serían leyes.

2. El universo de objetos de la ley científica.- Todo enunciado, si es una ley


científica, debe tener universo o dominio de objetos a los cuales se aplica. Dicho universo
debe ser claramente definido y determinado. Esta es una condición necesaria para que un
enunciado sea una ley científica. Sin embargo, debe quedar claro que aquí no se está
exigiendo una definición absoluta y definitiva, porque en la ciencia no hay conocimientos
definitivos. Pero este hecho no impide que los universos o dominios de objetos a los
cuales se aplican las leyes científicas no puedan ser claramente definidas y determinadas
en cada momento histórico, obviamente sin perder de vista al carácter provisional y
relativo de dichas definiciones. Esta condición es necesaria, porque permite aclarar y
definir la estructura y naturaleza de los objetos a los cuales se aplica la ley científica.

3. El alcance de la ley científica en el espacio y el tiempo.- Con respecto a la


universalidad o el alcance de las leyes de la ciencia en el espacio y el tiempo nosotros
podemos postular que, en general, hay leyes absolutas y leyes relativas. Entenderemos
por las primeras, leyes válidas en cualquier parte, en cualquier espacio. En otras palabras,
leyes válidas en todo el universo y en todo tiempo. Técnicamente, diremos leyes válidas
en cualquier sistema y en todo tiempo. Las segundas son leyes válidas solo en ciertos
sistemas del universo y en un cierto tiempo, o sea, leyes no válidas en todo el universo ni
en todo tiempo, o leyes válidas solo en la Tierra.

Clases de leyes científicas

1. Leyes Deterministas.- Son leyes universales, con un dominio de objetos


claramente definidos, objetos a los cuales se aplica en forma inequívoca y sin excepción.
Pueden ser:

1.1. Leyes Causales.- Las leyes causales son leyes que expresan una relación
unidireccional, asimétrica e invariante entre la causa y el efecto. Para saber que existe
una relación de causa- efecto, uniforme e invariante, entre dos hechos, basta descubrir y
determinar exactamente cuáles y cuántas son las condiciones necesarias y suficientes para
que se produzca el efecto.
1.2. Leyes deterministas no causales.- Hay leyes deterministas, (leyes universales,
leyes que se cumplen sin excepción para todos los objetos de su dominio), que no son
causales. Podemos distinguir dos tipos de estas leyes:

1.2.1. Leyes descriptivas que simplemente nos dicen que los objetos de cierto
dominio tienen tal o cual propiedad, o que dos o más objetos de dicho dominio están en
tal o cual relación, pero no nos dicen por qué, y en consecuencia no tienen forma lógica
condicional.

1.2.2. Leyes taxonómicas que expresan el orden natural de clasificación de los


vegetales y animales en reino, phylum, clase, orden, familia, género y especie;
clasificación que proviene de Linneo, Lamarck, Buffon y otros, que posteriormente ha
sido corregida y perfeccionada con los aportes de la teoría de la evolución y la genética.
Hay filósofos que se resisten a admitir que existen clases naturales (pero eso es otra
discusión).

2. Leyes no deterministas.- La forma más clara e importante de la ley no


determinista es la ley estadística. Asimismo, las leyes estadísticas conocidas más
importantes son las leyes de la genética y la mecánica cuántica.

¿Cómo se establecen las leyes científicas?

Mediante los sentidos conocemos únicamente la verdad de las proposiciones


singulares y como ya hemos visto, las leyes científicas, por su forma lógica, son
proposiciones universales o son proposiciones existenciales; en este último caso, claro,
se trata de proposiciones estadísticas. Entonces ¿cómo conocemos la verdad de las
proposiciones universales?, o bien, ¿cómo establecemos la verdad de las leyes
universales?

Primero sería bueno recalcar que no se puede deducir ninguna proposición universal
a partir de la realidad, de hechos o fenómenos, debe quedar claro que es imposible inferir
y establecer leyes científicas por deducción. La deducción es una relación binaria entre
lenguajes: entre un lenguaje que llamamos «premisa» y otro lenguaje que llamamos
“conclusión»; no es, pues, una relación entre cosas -hechos o fenómenos- y lenguajes. A
las cosas -hechos o fenómenos- podemos describirlas o interpretarlas, pero no tiene
sentido deducirlas, y por lo tanto, no se puede deducir o inferir nada a partir de cosas,
hechos o fenómenos.
Tampoco existe ningún principio, regla o ley que permita inferir válidamente una
proposición universal a partir de una proposición existencial. En otras palabras, una
premisa que consiste siempre de una secuencia finita de n proposiciones singulares, la
cual, por más alto que sea el valor de n, nunca podrá alcanzar a todos los x. Esta es la
razón de por qué no se puede establecer leyes científicas por inducción.

Toda ley científica tiene forma lógica condicional, sea ley estrictamente universal,
o sea ley estadística. Esta es una condición lógica necesaria para que la ley sea
contrastable, confirmable, refutable o falsable.

Toda ley científica o toda hipótesis universal se contrasta sólo a través de la


confrontación de sus consecuencias lógicas con los hechos de la realidad, consecuencias
lógicas consistentes de proposiciones singulares, deducidas de la ley, o hipótesis, más una
condición inicial, consistente a su vez también de una proposición singular, referente a
los hechos directamente. De esta manera, las leyes o hipótesis universales -
consecuentemente, las teorías-, ellas solas, no tienen contacto con la realidad, sino a través
de datos iniciales y sus consecuencias lógicas singulares. Por lo tanto, las leyes y teorías
resultan ser totalmente inverificables, ni directa ni indirectamente por sí mismas, como
asimismo también resultan ser irrefutables directamente porque nadie puede probar para
todos los casos, dado que nadie conoce todos los casos y dicho número de casos es
potencialmente infinito. Por lo tanto, podemos decir que dichos casos confirman la ley,
pero no la verifican.

Verificar significa hacer algo totalmente verdadero. El hombre podrá ir


confirmando la verdad de la ley para cualesquiera valores de n, pero nunca podrá verificar
que todos tienen esa propiedad. De esta manera se demuestra, que mediante la
verificación es imposible establecer la generalidad universal de las leyes.

Por otro lado, la falsación busca exactamente lo contrario que el verificación.


Mientras que la verificación pretende probar o mostrar que la hipótesis universal es
verdadera, la falsación pretende demostrar que la hipótesis universal -ley o teoría- es falsa,
mediante el MODUS TOLLENS, que es una ley de la lógica clásica universalmente
válida. La cual señala que basta una proposición singular falsa para probar -por M.T.-
definitivamente la falsedad de una proposición universal -o una teoría-. En cambio, la
verdad de una proposición universal -o una teoría- no se puede probar jamás a partir de
la verdad de proposiciones singulares. }
De esta manera, como la falsación, por definición solo sirve para refutar y hacer
falsa a las hipótesis universales y teorías, queda demostrado que la falsación no sirve para
justificar o probar la universalidad de las leyes científicas.

En conclusión, si no podemos justificar o fundamentar la generalidad universal de


las leyes científicas mediante la deducción, ni mediante la inducción -porque no existe
ninguna inferencia válida de esta forma-, ni mediante la verificación ni falsación,
entonces ¿de qué otra forma se justifica la generalidad universal de las leyes de la ciencia,
o acaso es injustificable? Para Llanos (2009) al verificar una hipótesis universal para n
casos, el científico ve que la hipótesis resulta verdadera, o al intentar falsar en n casos el
científico no encuentra ningún caso que refute y haga falsa a la hipótesis, entonces el
científico postula provisionalmente a dicha hipótesis como una ley, mientras no se
encuentre un contraejemplo que la invalide. Eso es todo. Obviamente aquí hay un cierto
acto de fe racional, como asimismo, una cierta convención, pero no arbitrariedad.

Teoría científica

Para que exista una teoría es condición necesaria y suficiente que: 1) Que existan
leyes, o mejor, una familia de leyes y 2) Que a partir de las leyes fundamentales (axiomas
o postulados como en las teorías matemáticas o lógicas) se deduzcan lógicamente otras
leyes, o sea, las leyes de segundo orden, en orden de jerarquía; y, a partir de estas leyes
se deduzcan las leyes de tercer orden, etc., hasta llegar a las proposiciones singulares que
se refieren a hechos.

En síntesis, una teoría científica es un sistema de hipótesis generales (universales o


estadísticas) confirmadas, tal que cada hipótesis de la teoría o es implicada por una o más
hipótesis de mayor jerarquía o implica a una o más hipótesis de menor jerarquía.
La explicación científica

La explicación científica siempre constituye la solución de una forma de problema


científico, siempre corresponde a los problemas de la forma “¿por qué?”, siempre es
respuesta a los porqués.

¿Qué se explica? Se explican tres cosas: a) Hechos o fenómenos singulares o,


hablando propiamente, se explican proposiciones singulares que describen hechos o
fenómenos singulares; b) leyes y c) teorías.

¿Con qué se explican? Para explicar algo es necesario buscar y dar la razón, el
antecedente, el fundamento, la base, la causa, etc. de por qué un sujeto lógico tiene tal o
cual propiedad; por qué dos o más individuos están en tal o cual relación. Por lo tanto, si
en la ciencia -al menos, en las ciencias naturales- se explican proposiciones singulares,
leyes y teorías entonces ¿con qué se explican estas cosas?

a) Las proposiciones singulares se explican con leyes o teorías y condiciones


iniciales (proposiciones singulares de carácter descriptivo, que expresan hechos o
evidencias).

b) las leyes se explican con otras leyes de más alto nivel, o sea, con leyes más
generales y más abstractas o con teorías.

c) las teorías se explican con otras teorías más generales y con mayor poder
explicativo.

¿Cómo se explica? Se explica inferencialmente. Toda explicación científica es


inferencial, por lo tanto, condicional; más aún, sostendremos que toda explicación
científica es deductiva.

Las explicaciones científicas, en tanto que son inferencias, son válidas o no son
válidas, son correctas o no son correctas, pero no tiene sentido decir que son verdaderas
o falsas, porque sólo las proposiciones tienen la propiedad de ser verdaderas o falsas.

Clases de explicaciones.

Hay dos clases de explicaciones: determinista y estadístico-probabilística

A) Explicación Determinista.- La explicación es determinista si está basada


únicamente en leyes o teorías deterministas. Ya hemos visto que una ley es determinista
si es una ley universal, que se aplica sin excepción a todos y cada uno de los objetos de
su universo en forma clara e inequívoca.

Las explicaciones deterministas tienen una propiedad lógica fundamental: la


falsedad del explanandum es incompatible con la verdad del explanans.

B) Explicación estadística.- La explicación científica es estadística si su explanans


contiene al menos una ley estadística o consiste en una teoría estadística. Se dice que una
característica lógica fundamental de la explicación estadística consiste en que la falsedad
de su explanandum es compatible con la verdad de su explamans.

La explicación científica es válida universalmente por dos razones. Primero, porque


se basa en leyes universales -o, mejor, en leyes generales-, y segundo, porque es
deductiva, es decir, porque se basa en leyes de la lógica, las cuales son aún mucho más
universales que las leyes de la ciencia, porque valen en todos los mundos posibles.

Este modelo de explicación en general, fue propuesto inicialmente por Hempel y


Oppenheim en 1948 y, posteriormente ampliado, y mejorado ya solo por Hempel en 1965.
Comprende dos modelos, el llamado modelo nomológico-deductivo (N-D) -al que hemos
dominado nosotros explicación determinista- y el modelo estadístico- inductivo (S-I) al
que nosotros hemos denominado simplemente como explicación estadística

La predicción científica

La predicción científica es una operación que consiste en inferir, a partir de leyes o


teorías más ciertas condiciones iniciales, dos cosas: a) La ocurrencia de un hecho en el
futuro. b) La existencia de un hecho desconocido hasta ese momento, pero que ya existe
desde un tiempo atrás, o siempre ha existido.

Dicho medio de previsión en la ciencia básica se conoce como predicción científica,


cuya finalidad es puramente cognoscitiva, o sea, adquirir nuevos conocimientos o
descubrimientos. En la ciencia aplicada, dicho medio de previsión se conoce como
previsión tecnológica, cuya finalidad es la utilidad en la sociedad.

A diferencia de la explicación científica, en la predicción se puede predecir sólo


proposiciones singulares, o sea, el proyectandum (lo que se va a predecir) puede tomar
sólo una forma.
La ciencia. Su método y su filosofía

Conocimiento científico:

Conocimiento racional, sistemático, verificable y por consiguiente falible que


permite la reconstrucción conceptual del mundo que es cada vez más amplia, profunda y
exacta.

Ciencias formales:
Son racionales, sistemáticas y verificables, pero no son objetivas; no nos dan
información acerca de la realidad ni se ocupan de los hechos. La lógica y la matemática
tratan de entes ideales; cuya existencia radica en la mente humana. Los objetos materiales
son numerables, pero no son números; tampoco son números puros (abstractos) sus
cualidades o relaciones. Los números no existen fuera de nuestros cerebros, y aun allí
dentro existen al nivel conceptual, y no al nivel fisiológico. Lo mismo vale para la lógica
formal: algunas de sus partes pueden hacerse corresponder a aquellas entidades psíquicas
que llamamos pensamientos.

A los lógicos y matemáticos no se les da objetos de estudio: ellos construyen sus


propios objetos. La lógica y la matemática, por ocuparse de inventar entes formales y de
establecer relaciones entre ellos, se llaman a menudo ciencias formales, precisamente
porque sus objetos no son cosas ni procesos, sino formas en las que se puede verter un
surtido ilimitado de contenidos.

La matemática es empleada como herramienta para realizar la más precisa


reconstrucción de las complejas relaciones que se encuentran entre los hechos y entre los
diversos aspectos de estos. Semejante aplicación de las ciencias de la forma pura a la
inteligencia del mundo de los hechos, se efectúa asignando diferentes interpretaciones a
los objetos formales, en otras palabras formalizan enunciados fácticos. En suma, la lógica
y la matemática establecen contacto con la realidad a través del puente del lenguaje.

Por otro lado, el método por el cual se ponen a prueba los enunciados verificables
de las ciencias formales se contenta con la lógica para demostrar rigurosamente sus
teoremas. Cuando se demuestra un teorema lógico o matemático no se recurre a la
experiencia: el conjunto de postulados, definiciones, reglas de formación de las
expresiones dotadas de significado, y reglas de inferencia deductiva —en suma, la base
de la teoría dada—, es necesaria y suficiente para ese propósito. La demostración de los
teoremas no es sino una deducción: es una operación confinada a la esfera teórica. La
matemática y la lógica son, en suma, ciencias deductivas.

En matemática la verdad consiste en la coherencia del enunciado dado con un


sistema de ideas admitido previamente: por esto, la verdad matemática no es absoluta
sino relativa a ese sistema. Más aún las teorías matemáticas abstractas, esto es, que
contienen términos no interpretados (signos que pueden adquirir distintos significados)
pueden desarrollarse sin poner atención al problema de la verdad. Solo las conclusiones
(teoremas) tendrán que ser verdaderas: los axiomas mismos pueden elegirse a voluntad.
La batalla se habrá ganado si se respeta la coherencia lógica, esto es, si no se violan las
leyes del sistema de lógica que se ha convenido en usar.

Ciencias fácticas

Las ciencias fácticas necesitan más que la lógica formal para confirmar sus
conjeturas porque en primer lugar, ellas no emplean símbolos vacíos (variables lógicas)
que no son verdaderas ni falsas, sino tan sólo símbolos interpretados. En segundo lugar,
la racionalidad —esto es, la coherencia con un sistema de ideas aceptado previamente—
es necesaria pero no suficiente para los enunciados fácticos; en particular la sumisión a
algún sistema de lógica es necesaria pero no es una garantía de que se obtenga la verdad.

Los enunciados de las ciencias fácticas deben ser verificables en la experiencia, sea
indirectamente (en el caso de las hipótesis generales), sea directamente (en el caso de las
consecuencias singulares de las hipótesis). Únicamente después que haya pasado las
pruebas de la verificación empírica podrá considerarse que un enunciado es adecuado a
su objeto.

Por otro lado, el conocimiento fáctico, aunque racional, es esencialmente probable


porque la naturaleza misma del método científico impide la confirmación final de las
hipótesis fácticas. La inferencia científica es una red de inferencias deductivas
(demostrativas) y probables (inconcluyentes), en otras palabras, la demostración es
completa y final; la verificación es incompleta y por eso temporaria.

En resumidas cuentas, la coherencia es necesaria pero no suficiente en el campo de


las ciencias de hechos: para anunciar que un enunciado es (probablemente) verdadero se
requieren datos empíricos (proposiciones acerca de observaciones o experimentos). En
última instancia, sólo la experiencia puede decirnos si una hipótesis relativa a cierto grupo
de hechos materiales es adecuada o no. El mejor fundamento de esta regla metodológica
que acabamos de enunciar es que la experiencia le ha enseñado a la humanidad que el
conocimiento de hecho no es convencional, que si se busca la comprensión y el control
de los hechos debe partirse de la experiencia. Pero la experiencia no garantizará que la
hipótesis en cuestión sea la única verdadera: sólo nos dirá que es probablemente
adecuada.

Los rasgos esenciales del tipo de conocimiento que alcanzan las ciencias de la
naturaleza y de la sociedad son la racionalidad y la objetividad. Por conocimiento racional
se entiende que es teórico, esto quiere decir que está constituido por conceptos, juicios y
raciocinios que se organizan en un conjunto ordenado de proposiciones de acuerdo con
algún conjunto de reglas lógicas con el fin de producir nuevas ideas (inferencia
deductiva). Que el conocimiento científico de la realidad sea objetivo significa que
concuerda aproximadamente con su objeto buscando alcanzar la verdad fáctica; y que
verifica la adaptación de las ideas a los hechos recurriendo a un comercio peculiar con
los hechos (observación y experimento), intercambio que es controlable y hasta cierto
punto reproducible.

1) El conocimiento científico es fáctico: parte de los hechos, los respeta hasta cierto
punto,y siempre vuelve a ellos. La ciencia intenta describir los hechos tal como son. No
siempre es posible, ni siquiera deseable, respetar enteramente los hechos cuando se los
analiza, y no hay ciencia sin análisis. El investigador produce modificaciones sobre el
objeto que investiga, no aprehende su objeto tal como es, sino tal como queda modificado
por sus propias operaciones; sin embargo, en todos los casos tales cambios son objetivos.
Más aún, en todos los casos el investigador intenta describir las características y el monto
de la perturbación que produce en el acto del experimento; procura, en suma estimar la
desviación o "error" producido por su intervención activa.

2) El conocimiento científico trasciende los hechos: descarta los hechos, produce


nuevos hechos, y los explica. La investigación científica no se limita a los hechos
observados: los científicos exprimen la realidad a fin de ir más allá de las apariencias. El
conocimiento científico racionaliza la experiencia en lugar de limitarse a describir; la
ciencia explica los hechos por medio de hipótesis (en particular, enunciados de leyes) y
sistemas de hipótesis (teorías). Los científicos conjeturan lo que hay tras los hechos
observados, y de continuo inventan conceptos que carecen de correlato empírico, aun
cuando presumiblemente se refieren a cosas, cualidades o relaciones existentes
objetivamente, se infieren su existencia a partir de hechos experimentables y tales
conceptos son significativos tan sólo en ciertos contextos teóricos.

No son los hechos por sí mismos sino su elaboración teórica y la comparación de


las consecuencias de las teorías con los datos observacionales, la principal fuente del
descubrimiento de nuevos hechos.

La filosofía científica favorece la elaboración de técnicas específicas en cada


campo, con la única condición de que estas técnicas cumplan las exigencias esenciales
del método científico en lo que respecta a las preguntas y a las pruebas.

3) La ciencia es analítica: la investigación científica aborda problemas


circunscriptos, uno a uno, y trata de descomponerlo todo en elementos (no necesariamente
últimos o siquiera reales). Los problemas de la ciencia son parciales y así son también,
por consiguiente, sus soluciones, pero, a medida que la investigación avanza, su alcance
se amplía.

La investigación comienza descomponiendo sus objetos a fin de descubrir el


"mecanismo" interno responsable de los fenómenos observados. Pero el desmontaje del
mecanismo no se detiene cuando se ha investigado la naturaleza de sus partes; el próximo
paso es el examen de la interdependencia de las partes, y la etapa final es la tentativa de
reconstruir el todo en términos de sus partes interconectadas.

El análisis no acarrea el descuido de la totalidad; lejos de disolver la integración, el


análisis es la única manera conocida de descubrir cómo emergen, subsisten y se
desintegran los todos. La ciencia no ignora la síntesis: lo que sí rechaza es la pretensión
irracionalista de que las síntesis pueden ser aprehendidas por una intuición especial, sin
previo análisis.

4) La ciencia es especializada: La unidad del método científico, su aplicación


depende, en gran medida, del asunto; esto explica la multiplicidad de técnicas y la relativa
independencia de los diversos sectores de la ciencia.

5) El conocimiento científico procura la precisión y claridad: Los problemas se


formulan de manera clara, definiendo mayoría de sus conceptos incluyéndolas en
esquemas teóricos: Las definiciones son convencionales, pero no se las elige
caprichosamente: deben ser convenientes y fértiles. Por otro lado, la ciencia procura
siempre medir y registrar los fenómenos para la descripción y la inteligencia de los
sucesos y procesos. Sin embargo, la formulación matemática, deseable como es, no es
una condición indispensable para que el conocimiento sea científico; lo que caracteriza el
conocimiento científico es la exactitud en un sentido general antes que la exactitud
numérica o métrica, la que es inútil si media la vaguedad conceptual.

6) El conocimiento científico es comunicable: no es inefable sino expresable, no es


privado sino público. El lenguaje científico comunica información a quienquiera haya
sido adiestrado para entenderlo. La comunicabilidad es posible gracias a la precisión; y
es a su vez una condición necesaria para la verificación de los datos empíricos y de las
hipótesis científicas, multiplicando las posibilidades de su confirmación o refutación.

7) El conocimiento científico es verificable: debe aprobar el examen de la


experiencia. A fin de explicar un conjunto de fenómenos, el científico inventa conjeturas
fundadas de alguna manera en el saber adquirido. Sus suposiciones pueden ser cautas o
audaces simples o complejas; en todo caso deben ser puestas a prueba. El test de las
hipótesis fácticas es empírico, esto es, observacional o experimental. La experimentación
puede calar más profundamente que la observación, porque efectúa cambios en lugar de
limitarse a registrar variaciones: aísla y controla las variables sensibles o pertinentes.

La ciencia fáctica es por esto empírica en el sentido de que la comprobación de sus


hipótesis involucra la experiencia; pero no es necesariamente experimental. Las técnicas
de verificación evolucionan en el curso del tiempo; sin embargo, siempre consisten en
poner a prueba consecuencias particulares de hipótesis generales (entre ellas, enunciados
de leyes). La verificabilidad hace a la esencia del conocimiento científico; si así no fuera,
no podría decirse que los científicos procuran alcanzar conocimiento objetivo.

8) La investigación científica es metódica: no es errática sino planeada. Todo trabajo


de investigación se funda sobre el conocimiento anterior, y en particular sobre las
conjeturas mejor confirmadas. Más aun, la investigación procede conforme a reglas y
técnicas que han resultado eficaces en el pasado pero que son perfeccionadas
continuamente, no sólo a la luz de nuevas experiencias, sino también de resultados del
examen matemático y filosófico

Los datos aislados y crudos son inútiles y no son dignos de confianza; es preciso
elaborarlos, organizarlos y confrontarlos con las conclusiones teóricas. El método
científico no provee recetas infalibles para encontrar la verdad: sólo contiene un conjunto
de prescripciones falibles (perfectibles) para el planeamiento de observaciones y
experimentos, para la interpretación de sus resultados, y para el planteo mismo de los
problemas.

9) El conocimiento científico es sistemático: una ciencia no es un agregado de


informaciones inconexas, sino un sistema de ideas conectadas lógicamente entre sí. Todo
sistema de ideas caracterizado por cierto conjunto básico (pero refutable) de hipótesis
peculiares, y que procura adecuarse a una clase de hechos, es una teoría.

El fundamento de una teoría dada no es un conjunto de hechos sino, más bien, un


conjunto de principios, o hipótesis de cierto grado de generalidad (y, por consiguiente, de
cierta fertilidad lógica). Las conclusiones (o teoremas) pueden extraerse de los principios,
sea en la forma natural, o con la ayuda de técnicas especiales que involucran operaciones
matemáticas.

10) El conocimiento científico es general: ubica los hechos singulares en pautas


generales, los enunciados particulares en esquemas amplios. El científico se ocupa del
hecho singular en la medida en que éste es miembro de una clase o caso de una ley; más
aún, presupone que todo hecho es clasificable y legal. No es que la ciencia ignore la cosa
individual o el hecho irrepetible; lo que ignora es el hecho aislado.

En efecto, uno de los principios ontológicos que subyacen a la investigación


científica es que la variedad y aun la unicidad en algunos respectos son compatibles con
la uniformidad y la generalidad en otros respectos. El científico moderno descarta los
detalles al procurar descubrir los rasgos comunes a individuos que son únicos en otros
respectos, al buscar las variables pertinentes (o cualidades esenciales) y las relaciones
constantes entre ellas (las leyes), el científico intenta exponer la naturaleza esencial de las
cosas naturales y humanas.

La generalidad del lenguaje de la ciencia no tiene, sin embargo, el propósito de


alejar a la ciencia de la realidad concreta: por el contrario, la generalización es el único
medio que se conoce para adentrarse en lo concreto, para apresar la esencia de las cosas
(sus cualidades y leyes esenciales).

11) El conocimiento científico es legal: busca leyes (de la naturaleza y de la cultura)


y las aplica. El conocimiento científico inserta los hechos singulares en pautas generales
llamadas "leyes naturales" o "leyes sociales". Tras el desorden y la fluidez de las
apariencias, la ciencia fáctica descubre las pautas regulares de la estructura y del proceso
del ser y del devenir. En la medida en que la ciencia es legal, es esencialista: intenta legar
a la raíz de las cosas. Encuentra la esencia en las variables relevantes y en las relaciones
invariantes entre ellas. Hay leyes de hechos y leyes mediante las cuales se pueden explicar
otras leyes. Es decir, los enunciados de las leyes se organizan en una estructura de niveles.

Ciertamente, los enunciados de las leyes son transitorios. Si se considera a las leyes
como las pautas mismas del ser y del devenir, entonces debieran cambiar junto con las
cosas mismas; por lo menos, debe admitirse que, al emerger nuevos niveles, sus
cualidades peculiares se relacionan entre sí mediante nuevas leyes.

12) La ciencia es explicativa: intenta explicar los hechos en términos de leyes, y las
leyes en términos de principios. Los científicos no se conforman con descripciones
detalladas; además de inquirir cómo son las cosas, procuran responder al por qué. La
ciencia deduce proposiciones relativas a hechos singulares a partir de leyes generales, y
deduce las leyes a partir de enunciados nomológicos aún más generales (principios). Solía
creerse que explicar es señalar la causa, pero en la actualidad se reconoce que la
explicación causal no es sino un tipo de explicación científica. La explicación científica
se efectúa siempre en términos de leyes, y las leyes causales no son sino una subclase de
las leyes científicas.

La historia de la ciencia enseña que las explicaciones científicas se corrigen o


descartan sin cesar. ¿Significa esto que son todas falsas? En las ciencias fácticas, la verdad
y el error no son del todo ajenos entre sí: hay verdades parciales y errores parciales. Las
explicaciones científicas no son finales pero son perfectibles.

13) El conocimiento científico es predictivo: Trasciende la masa de los hechos de


experiencia, imaginando cómo puede haber sido el pasado y cómo podrá ser el futuro. La
predicción es, en primer lugar, una manera eficaz de poner a prueba las hipótesis; pero
también es la clave del control y aun de la modificación del curso de los acontecimientos.
La predicción científica se funda sobre leyes y sobre informaciones específicas
fidedignas, relativas al estado de cosas actual o pasado. Es del tipo "ocurrirá E1 siempre
que suceda C1, pues siempre que sucede C es seguido por o está asociado con E". C y E
designan clases de sucesos en tanto que C1 y E1 denotan los hechos específicos que se
predicen sobre la base del o los enunciados que conectan a C con E en general.

14) La ciencia es abierta: no reconoce barreras a priori que limiten el conocimiento.


Si un conocimiento fáctico no es refutable en principio, entonces no pertenece a la ciencia
sino a algún otro campo. Las nociones acerca de nuestro medio, natural o social, o acerca
del yo, no son finales: están todas en movimiento, todas son falibles. Siempre es
concebible que pueda surgir una nueva situación (nuevas informaciones o nuevos trabajos
teóricos) en que nuestras ideas, por firmemente establecidas que parezcan, resulten
inadecuadas en algún sentido. A consecuencia del carácter hipotético de los enunciados
de leyes, y de la naturaleza perfectible de los datos empíricos la ciencia no es un sistema
dogmático y cerrado sino controvertido y abierto. O, más bien, la ciencia es abierta como
sistema porque es falible y por consiguiente capaz de progresar. El requisito de la
verificabilidad de las hipótesis científicas basta para asegurar el progreso científico.

15) La ciencia es útil: porque busca la verdad, la ciencia es eficaz en la provisión de


herramientas para el bien y para el mal. La utilidad de la ciencia es una consecuencia de
su objetividad; sin proponerse necesariamente alcanzar resultados aplicables, la
investigación los provee a la corta o a la larga.

La técnica precientífica era primordialmente una colección de recetas pragmáticas


no entendidas, muchas de las cuales desempeñaban la función de ritos mágicos. La técnica
moderna es, en medida creciente, ciencia aplicada.

Pero la tecnología es más que ciencia aplicada: en primer lugar porque tiene sus
propios procedimientos de investigación, adaptados a circunstancias concretas que distan
de los casos puros que estudia la ciencia. En segundo lugar, porque toda rama de la
tecnología contiene un cúmulo de reglas empíricas descubiertas antes que los principios
científicos. La tecnología no es meramente el resultado de aplicar el conocimiento
científico existente a los casos prácticos: la tecnología viva es esencialmente, el enfoque
científico de los problemas prácticos, es decir, el tratamiento de estos problemas sobre un
fondo de conocimiento científico y con ayuda del método científico.

En resumen, la ciencia es valiosa como herramienta para domar la naturaleza y


remodelar la sociedad; es valiosa en sí misma, como clave para la inteligencia del mundo
y del yo; y es eficaz en el enriquecimiento, la disciplina y la liberación de nuestra mente.

Método científico

El método científico no es una lista de recetas para dar con las respuestas correctas
a las preguntas científicas, sino el conjunto de procedimientos por los cuales se plantean
los problemas científicos y se ponen a prueba las hipótesis científicas.

La veracidad, que es un objetivo, no caracteriza el conocimiento científico de


manera tan inequívoca como el modo, medio o método por el cual la investigación
científica plantea problemas y pone a prueba las soluciones propuestas. Un dato será
considerado verdadero hasta cierto punto, siempre que pueda ser confirmado de manera
compatible con los cánones del método científico. En consecuencia, para que un trozo de
saber merezca ser llamado "científico", no basta —ni siquiera es necesario— que sea
verdadero. Debemos saber, en cambio, cómo hemos llegado a saber, o a presumir, que el
enunciado en cuestión es verdadero: debemos ser capaces de enumerar las operaciones
(empíricas o racionales) por las cuales es verificable (confirmable o disconfirmable) de
una manera objetiva al menos en principio.

Ahora bien, para verificar un enunciado —porque las proposiciones, y no los


hechos, son verdaderas y falsas y pueden, por consiguiente, ser verificadas— no basta la
contemplación y ni siquiera el análisis. Comprobamos nuestras afirmaciones
confrontándolas con otros enunciados. El enunciado confirmatorio (o disconfirmatorio),
que puede llamarse el verificans, dependerá del conocimiento disponible y de la
naturaleza de la proposición dada, la que puede llamarse verificandum. Los enunciados
confirmatorios serán enunciados referentes a la experiencia si lo que se somete a prueba
es una afirmación fáctica, esto es, un enunciado acerca de hechos, sean experimentados
o no. Observemos, de pasada, que el científico tiene todo el derecho de especular acerca
de hechos inexperienciales, esto es, hechos que en una etapa del desarrollo del
conocimiento están más allá de alcance de la experiencia humana; pero entonces está
obligado a señalar las experiencias que permiten inferir tales hechos inobservados o aun
inobservables.

La verificación de afirmaciones pertenecientes al dominio de las formas (lógica y


matemática) no requiere otro instrumento material que el cerebro; sólo la verdad fáctica
requiere la observación o el experimento.

Ahora bien, los enunciados verificables son de muchas clases. Hay proposiciones
singulares tales como "este trozo de hierro está caliente"; particulares o existenciales, tales
como "algunos trozos de hierro están calientes" (que es verificablemente falsa). Hay,
además, enunciados de leyes, tales como "todos los metales se dilatan con el calor" (o
mejor, "para todo x, si x es un trozo de metal que se calienta, entonces x se dilata"). Las
proposiciones singulares y particulares pueden verificarse a menudo de manera
inmediata, con la sola ayuda de los sentidos o eventualmente, con el auxilio de
instrumentos que amplíen su alcance; pero otras veces exigen operaciones complejas que
implican enunciados de leyes y cálculos matemáticos.
Cuando un enunciado verificable posee un grado de generalidad suficiente,
habitualmente se lo llama hipótesis científica. O, lo que es equivalente, cuando una
proposición general (particular o universal) puede verificarse sólo de manera indirecta —
esto es, por el examen de algunas de sus consecuencias— es conveniente llamarla
"hipótesis científica". Por ejemplo, "todos los trozos de hierro se dilatan con el calor", y
a fortiori, "todos los metales se dilatan con el calor", son hipótesis científicas: son puntos
de partida de raciocinios y, por ser generales, sólo pueden ser confirmados poniendo a
prueba sus consecuencias particulares, esto es, probando enunciados referentes a muestras
específicas de metal.

El núcleo de toda teoría científica es un conjunto de hipótesis verificables. Las


hipótesis científicas son, por una parte, remates de cadenas inferenciales no demostrativas
(analógicas o inductivas) más o menos oscuras; por otra parte, son puntos de partida de
cadenas deductivas cuyos últimos eslabones —los más próximos a los sentidos, en el caso
de la ciencia fáctica—, deben pasar la prueba de la experiencia.

El método científico no produce automáticamente el saber, pero nos evita perdernos


en el caos aparente de los fenómenos, aunque sólo sea porque nos indica cómo no plantear
los problemas y cómo no sucumbir al embrujo de nuestros prejuicios predilectos. Vale
decir, no hay reglas infalibles que garanticen por anticipado el descubrimiento de nuevos
hechos y la invención de nuevas teorías.

Las hipótesis no se nos imponen por la fuerza de los hechos, sino que son inventadas
para dar cuenta de los hechos. Es verdad que la invención no es ilegal, sino que sigue
ciertas pautas; pero éstas son psicológicas antes que lógicas, son peculiares de los diversos
tipos intelectuales. Algunas hipótesis se formulan por vía inductiva, esto es, como
generalizaciones sobre la base de la observación de un puñado de casos particulares. Pero
la inducción dista de ser la única o siquiera la principal de las vías que conducen a
formular enunciados generales verificables. Otras veces, el científico opera por analogía,
principios heurísticos o guiados por consideraciones filosóficas; lo único invariante es el
requisito de la verificabilidad.

Si la hipótesis que ha de ser puesta a prueba se refiere a objetos ideales (números,


funciones, figuras, fórmulas lógicas, suposiciones filosóficas, etc.), su verificación
consistirá en la prueba de su coherencia —o incoherencia— con enunciados (postulados,
definiciones, etc.) previamente aceptados. En este caso, la confirmación puede ser una
demostración definitiva.

En cambio, si el enunciado en cuestión se refiere (de manera significativa) a la


naturaleza o a la sociedad, puede ocurrir, o bien que podamos averiguar su valor de verdad
con la sola ayuda de la razón, o que debamos recurrir, además, a la experiencia. La mera
referencia a los hechos no basta para decidir qué herramienta, si el análisis o la
experiencia, ha de emplearse. Para convalidar una proposición hay que empezar por
determinar su status y estructura lógica. En consecuencia, el análisis lógico (tanto
sintáctico como semántico) es la primera operación que debiera emprenderse al
comprobar las hipótesis científicas, sean fácticas o no. Esta norma debiera considerarse
como una regla del método científico. Vale decir, el análisis lógico y matemático
comprobará la validez de los enunciados (hipótesis) que son analíticos en determinado
contexto.

Por otro lado, los enunciados fácticos no analíticos —esto es, las proposiciones
referentes a hechos, pero indecidibles con la sola ayuda de la lógica— tendrán que
concordar con los datos empíricos o adaptarse a ellos, esta es la segunda regla del método
científico. Esto quiere decir que el método científico, aplicado a la comprobación de
afirmaciones informativas, se reduce al método experimental.

Método experimental

La experimentación involucra la modificación deliberada de algunos factores, es


decir, la sujeción del objeto de experimentación a estímulos controlados. Pero lo que
habitualmente se llama "método experimental" no envuelve necesariamente experimentos
en el sentido estricto del término, y puede aplicarse fuera del laboratorio.

No es fácil decidir si una hipótesis concuerda con los hechos. En primer lugar, la
verificación empírica rara vez puede determinar cuál de los componentes de una teoría
dada ha sido confirmado o disconfirmado; habitualmente se prueban sistemas de
proposiciones antes que enunciados aislados. Pero la principal dificultad proviene de la
generalidad de las hipótesis científicas. En cambio, las proposiciones fácticas singulares
no son tan difíciles de probar. Lo difícil de comprobar son las proposiciones fácticas
generales, esto es, los enunciados referentes a clases de hechos y no a hechos singulares.
Un enunciado general como "los obesos son alegres" no se refiere solamente a nuestros
conocidos, sino a todos los gordos del mundo; por consiguiente, no podemos esperar
verificarlo directamente (esto es, por el examen de un inexistente "gordo general") ni
exhaustivamente (auscultando a todos los seres humanos presentes, pasados y futuros).
La metodología nos dice cómo debemos proceder; en este caso, examinaremos
sucesivamente los miembros de una muestra suficientemente numerosa de personas
obesas.

Vale decir, probamos una consecuencia particular de nuestra suposición general.


Esta es una tercera máxima del método científico: obsérvense singulares en busca de
elementos de prueba universales.

O sea, debemos empezar por determinar el exacto sentido de nuestra pregunta. Y


ésta es una cuarta regla del método científico, a saber: formúlese preguntas precisas.
Luego procederemos a elegir la técnica experimental (clase de balanza, tipo de examen
de corazón, etc.) y la manera de registrar datos y de ordenarlos. Además debemos decidir
el tamaño de la muestra que habremos de observar y la técnica de escoger sus miembros,
con el fin de asegurar que será una fiel representante de la población total. Una quinta
regla del método científico: la recolección y el análisis de datos deben hacerse conforme
a las reglas de la estadística.

Después que los datos han sido reunidos, clasificados y analizados, el equipo que
tiene a su cargo la investigación podrá realizar una inferencia. Pero nos gustaría formular
otras preguntas: deseamos entender la ley que hemos hallado. Esto lleva a la sexta regla
de método científico, a saber: no existen respuestas definitivas, y ello simplemente porque
no existen preguntas finales.

Método teórico

Toda ciencia fáctica especial elabora sus propias técnicas de verificación; entre
ellas, las técnicas de medición son típicas de la ciencia moderna. Pero en todos los casos
estas técnicas, por diferentes que sean, no constituyen fines en sí mismos; todas ellas
sirven para contrastar ciertas ideas con ciertos hechos por la vía de la experiencia.

El tipo de hipótesis característico de la ciencia moderna no es el de los enunciados


descriptivos aislados cuya función principal es resumir experiencias. Lo peculiar de la
ciencia moderna es que consiste en su mayor parte en teorías explicativas, es decir, en
sistemas de proposiciones que pueden clasificarse en: principios, leyes, definiciones, etc.,
y que están vinculadas entre sí mediante conectivas lógicas (tales como "y, o, si...
entonces", etc.). Las teorías dan cuenta de los hechos no sólo describiéndolos de manera
más o menos exacta, sino también proveyendo modelos conceptuales de los hechos, en
cuyos términos puede explicarse y predecirse, al menos en principio, cada uno de los
hechos de una clase. La conversión de las generalizaciones empíricas en leyes teóricas
envuelve trascender la esfera de los fenómenos y el lenguaje observacional: ya no se trata
de hacer afirmaciones acerca de hechos observables, sino de adivinar su "mecanismo"
interno. Es importante advertir, en efecto, que la experiencia dista de ser el único juez de
las teorías fácticas, o siquiera el último. Las teorías se contrastan con los hechos y con
otras teorías.

Una hipótesis de contenido fáctico no sólo es sostenida por la confirmación empírica


de cierto número de sus consecuencias particulares (p. ej. predicciones). Las hipótesis
científicas están incorporadas en teorías o tienden a incorporarse en ellas; y las teorías
están relacionadas entre sí, constituyendo la totalidad de ellas la cultura intelectual. Por
esto, no debiera sorprender que las hipótesis científicas tengan soportes no sólo
científicos, sino también extracientíficos: los primeros son empíricos y racionales, los
últimos son psicológicos y culturales.

Cuanto más numerosos sean los hechos que confirman una hipótesis, cuanto mayor
sea la precisión con que ella reconstruye los hechos, y cuanto más vastos sean los nuevos
territorios que ayuda a explorar, tanto más firme será nuestra creencia en ella, esto es,
tanto mayor será la probabilidad que le asignemos. Esto es, esquemáticamente dicho, lo
que se entiende por el soporte empírico de las hipótesis fácticas. Pero la experiencia
disponible no puede ser considerada como inapelable: en primer lugar, porque nuevas
experiencias pueden mostrar la necesidad de un remiendo: en segundo término, porque la
experiencia científica no

es pura, sino interpretada, y toda interpretación se hace en términos de teorías,


motivo por el cual la primera reacción de los científicos experimentados ante
informaciones sobre hechos que parecerían trastornar teorías establecidas es de
escepticismo.

Las teorías científicas deben adecuarse, sin duda, a los hechos, pero ningún hecho
aislado es aceptado en la comunidad de los hechos controlados científicamente a menos
que tenga cabida en alguna parte del edificio teórico establecido. Desde luego, el soporte
racional no es garantía de verdad; si lo fuera, las teorías fácticas serían invulnerables a la
experiencia. Los soportes empíricos y racionales de las hipótesis fácticas son
interdependientes.
En cuanto a los soportes extracientíficos de las hipótesis científicas, uno de ellos es
de carácter psicológico: influye sobre nuestra elección de las suposiciones y sobre el valor
que le asignamos a su concordancia con los hechos. Lo que hemos llamado soporte
cultural de las hipótesis fácticas consiste en su compatibilidad con alguna concepción del
mundo, y en particular, con la Zeitgeist prevaleciente. Es obvio que tendemos a asignar
mayor peso a aquellas hipótesis que congenian con nuestro fondo cultural y, en particular,
con nuestra visión del mundo, que aquellas hipótesis que lo contradicen dogmática. La
única manera de minimizar este peligro es cobrar conciencia del hecho de que las
hipótesis científicas no crecen en un vacío cultural.

Los soportes empíricos y racionales son objetivos, en el sentido de que en principio


son susceptibles de ser sopesados y controlados conforme a patrones precisos y
formulables. En cambio, los soportes extracientíficos son, en gran medida, materia de
preferencia individual, de grupo o de época; por consiguiente, no debieran ser decisivos
en la etapa de la comprobación, por prominentes que sean en la etapa heurística. Es
importante que los científicos adviertan la fuerte presión que ejercen los factores
psicológicos y culturales sobre la formulación, elección, investigación y credibilidad de
las hipótesis fácticas. La presión, para bien o para mal, es real y nos obliga a tomar partido
por una u otra concepción del mundo; es mejor hacerlo conscientemente que
inadvertidamente.

Pautas de la investigación científica

1. PLANTEO DEL PROBLEMA

1.1 Reconocimiento de los hechos y selección de los que probablemente sean


relevantes en algún respecto.

1.2 Descubrimiento del problema: hallazgo de la laguna o de la incoherencia en el


cuerpo del saber.

1.3 Formulación del problema: planteo de una pregunta que tiene probabilidad de
ser la correcta; esto es, reducción del problema a su núcleo significativo, probablemente
soluble y probablemente fructífero, con ayuda de conocimiento disponible.

2. CONSTRUCCIÓN DE UN MODELO TEÓRICO

2.1 Selección de los factores pertinentes: invención de suposiciones plausibles


relativas a las variables que probablemente son pertinentes.
2.2 Invención de las hipótesis centrales y de las suposiciones auxiliares: propuesta
de un conjunto de suposiciones concernientes a los nexos entre las variables pertinentes.

3. DEDUCCIÓN DE CONSECUENCIAS PARTICULARES

3.1 Búsqueda de soportes racionales: deducción de consecuencias particulares que


pueden haber sido verificadas en el mismo campo o en campos contiguos.

3.2 Búsqueda de soportes empíricos: elaboración de predicciones (o retrodicciones)


sobre la base de modelo teórico y de datos empíricos, teniendo en vista técnicas de
verificación disponibles o concebibles.

4. PRUEBA DE LAS HIPÓTESIS

4.1 Diseño de la prueba: planeamiento de los medios para poner a prueba las
predicciones; diseño de observaciones, mediciones, experimentos y demás operaciones
instrumentales.

4.2 Ejecución de la prueba: realización de las operaciones y recolección de datos.

4.3 Elaboración de los datos: clasificación, análisis, evaluación, reducción, etc., de


los datos empíricos.

4.4 Inferencia de la conclusión: interpretación de los datos elaborados a la luz del


modelo teórico.

5. INTRODUCCIÓN DE LAS CONCLUSIONES EN LA TEORÍA

5.1 Comparación de las conclusiones con las predicciones: contraste de los


resultados de la prueba con las consecuencias del modelo teórico, precisando en qué
medida éste puede considerarse confirmado o disconfirmado (inferencia probable).

5.2 Reajuste del modelo: eventual corrección o aun reemplazo del modelo.

5.3 Sugerencias acerca de trabajo ulterior: búsqueda de lagunas o errores en la teoría


y/o los procedimientos empíricos, si el modelo ha sido disconfirmado; si ha sido
confirmado y examen de posibles extensiones.

Ley científica

La definición de una ley, dependerá de las circunstancias o del contexto en que usa
la expresión, así como de su filosofía explícita o tácita. Si el científico concede que el
mundo físico subsiste aun cuando no haya quien lo perciba o lo piense, entonces la
expresión en cuestión podrá significar una conexión objetiva entre las cualidades fuerza,
masa y aceleración, sea que se las mida o no. En cambio, si el científico no asigna
existencia autónoma a los objetos físicos, entonces entenderá por "ley científica" una
relación invariante entre términos anclados de alguna manera a datos de los sentidos (los
cuales funcionarán como términos últimos o "hechos atómicos y no como señales
elementales de nuestro comercio con las cosas). Y si sólo accede a hablar acerca de
operaciones posibles, entonces podrá significar por "ley científica" cierta pauta de la
conducta humana (p. ej.. la predicción) en relación con cierta clase de datos empíricos En
total debiéramos distinguir, pues, por lo menos cuatro significados del término "ley" en:

(1) Ley1, o simplemente ley, son estructuras nómicas (pautas invariantes.) al nivel
óntico. Denota toda pauta inmanente del ser o del devenir; esto es, toda relación constante
y objetiva en la naturaleza, en la mente o en la sociedad.

(2) Ley2 o enunciado nomológico, son proposiciones acerca de pautas objetivas: son
pautas al nivel del conocimiento. Designa toda hipótesis general que tiene como referente
mediato una ley1, y que constituye una reconstrucción conceptual de ella cuyo referente
inmediato es el modelo teórico al que se aplica exactamente.

Lo que habitualmente designa el término “ley” no depende de nuestro


conocimiento, a menos que se trate de una ley del proceso cognoscitivo. Antes bien,
nuestro conocimiento de las leyes1 (esto es, las leyes2) presupone la existencia de pautas
objetivas. Las leyes1 no son verdaderas ni falsas: simplemente son. Sólo las leyes2 pueden
ser más o menos exactas. Las leyes1, aunque objetivas, no son objetos sensibles sino
inteligibles: no percibimos las leyes, sino que las inferimos a partir de los fenómenos, En
particular, las construcciones conceptuales llamadas "leyes científicas" (nuestras leyes2)
son las reconstrucciones cambiantes de las leyes objetivas en el nivel del pensamiento
racional. O, si se prefiere, las construcciones conceptuales llamadas "leyes2" son la
proyección deformada e incompleta de las leyes1 sobre el plano conceptual. En suma,
mientras las leyes de la naturaleza, del pensamiento y de la sociedad (leyes1) son la
estructura de la realidad, los correspondientes enunciados nomológicos (leyes2)
pertenecen a nuestros modelos ideales de la realidad.

(3) Ley3, o enunciado nomopragmático, son relaciones invariantes al nivel


pragmático: son guías para la acción fundada científicamente. Designa toda regla
mediante la cual puede regularse (exitosamente o no) una conducta. Las leyes3 se deducen
casi siempre de leyes2 en conjunción con datos empíricos, en otras palabras efecto, casi
siempre son aplicaciones de leyes2 a situaciones o a clases de situaciones específicas.
(4) Ley4, o enunciado metanomológico, son prescripciones metodológicas y/o
principios ontológicos. Designa todo principio general acerca de la forma y/o alcance de
los enunciados de ley pertenecientes a algún capítulo de la ciencia fáctica.

Sobre la base de las distinciones elaboradas y justificadas en lo que precede,


podríamos comprimir los ideales de la investigación científica fundamental en las
siguientes máximas:

(1) Legalidad. Los hechos singulares (sucesos y procesos) deberán considerarse


como casos particulares de leyes1.

(2) Cognoscibilidad. Las leyes1 no son perceptibles pero son cognoscibles. Su


conocimiento se corporiza en hipótesis generales (particulares o universales) que pueden
llamarse "leyes2".

(3) Limitación y perfectibilidad. Toda ley2 tiene un dominio de validez peculiar y


es falible porque depende en parte de la experiencia; pero todo enunciado nomológico
puede perfeccionarse tanto en extensión como en precisión.

(4) Generalidad del conocimiento fáctico. Los enunciados fácticos singulares son
deducibles de enunciados fácticos generales (hipótesis llamadas “leyes2”). A esto se
reduce, desde el punto de vista lógico, la explicación científica de los hechos.

(5) Sistematicidad. Las leyes2 constituyen sistemas lógicamente organizados o, al


menos, organizables. La mayoría de las leyes2 son deducibles de hipótesis de tipo más
elevado; las de máximo grado en un contexto dado se llaman "axiomas" o "principios".
Esto es, la mayoría de los enunciados nomológicos son aplicables en términos de leyes 2
de un grado de generalidad aún mayor. En esto consiste la explicación científica de las
leyes.

(6) Generalidad de los enunciados empíricos. Los enunciados empíricos singulares


(los que se refieren a la subclase de hechos que llamamos "experiencia") son deducibles
de hipótesis que pueden llamarse "leyes3". Estas últimas proposiciones son las
herramientas de la predicción; contienen variables (ligadas) que resumen ítems de
información específica.

(7) La legalidad de las leyes. Los enunciados nomológicos (leyes2) encuadran en


ciertos esquemas generales que pueden denominarse "leyes4” (prescripciones
metodológicas y/o como suposiciones ontológicas).
Investigación científica en psicología

Conocimiento científico

Se adquiere por la aplicación del método científico. El conocimiento científico es


un saber crítico (fundamentado), racional, metódico, verificable, provisional, sistemático,
objetivo, ordenado, comunicable (por medio del lenguaje científico), y que explica y
predice hechos por medio de leyes. La sistematización del conocimiento científico se
realiza a través de la elaboración de teorías.

Teoría científica

Podemos definir la teoría como una agrupación de esquemas conceptuales formados


por conjuntos de hipótesis con los que representamos el conocimiento científico de forma
sistematizada. En función de que las teorías sean adecuadas o no para explicar los
fenómenos de la naturaleza, se mantendrán vigentes o habrá que desecharlas o
transformarlas, originando nuevas formas de explicación de los acontecimientos, es decir,
nuevas teorías. Las teorías científicas también proporcionan las leyes que explican las
uniformidades que se observan en los hechos.

Hipótesis científica
Es un enunciado teórico referido directa o indirectamente a acontecimientos no
sujetos hasta el momento a contrastación empírica y que es modificable a la luz de nuevos
datos. Las hipótesis son, por consiguiente, proposiciones tentativas acerca de la
naturaleza, que suelen formar parte de sistemas teóricos más amplios, es decir, de teorías.

Las hipótesis nacen del armazón teórico de una teoría, tienen el objetivo de enunciar
aspectos determinados relacionados con la teoría y de hacer que ésta sea contrastable
empíricamente.

Ley científica

Es una hipótesis de amplio alcance explicativo que ha sido confirmada y que refleja
las regularidades de la naturaleza. Las leyes sintetizan nuestro conocimiento de los
fenómenos que son objeto de investigación y se funden en el esquema teórico de las
teorías, las cuales las engloban y tratan, a través de ellas, de entender y predecir dichos
fenómenos. No todas las hipótesis confirmadas pasan a ser leyes científicas. Para que esto
ocurra deben cumplirse tres características: 1) que expresen regularidades de
comportamiento bajo determinadas condiciones, 2) que sean universales (es decir,
aplicables a todos los elementos particulares que queden incluidos en el enunciado en el
enunciado de la ley) y 3) que establezcan una relación necesaria entre las condiciones
antecedentes y consecuentes de su enunciado.

Las teorías hacen uso de una serie de términos que son extraídos del lenguaje
común o de otras teorías científicas para describir los fenómenos observados en la
naturaleza. Son los llamados términos primitivos. Estos términos provienen de ámbitos
externos a la propia teoría y no es función de la misma definirlos, ya que pertenecen a
otras áreas de conocimiento en las que ya están definidos. Así, por ejemplo cuando en
Psicología hablamos de intensidad emocional estamos utilizando el término intensidad
importado de la física.

Constructos

Son conceptos son términos que pueden aparecer en las teorías, hipótesis o leyes y
que utilizamos para referirnos a variables que no son directamente observables. Adquirir
o generar un constructo consiste en extraer de todos los posibles ejemplos de la naturaleza,
las características que tienen en común, lo que redunda en la mejor organización de
nuestro conocimiento. La Psicología ha producido una gran cantidad de constructos que
intentan definir lo que hay bajo una serie de manifestaciones de la conducta. La utilización
de los constructos dentro de las teorías es más complicada que la de los términos
primitivos porque no están tan bien definidos al ser abstractos.

Modelo

Es una representación arbitraria de una parcela de la realidad que sirve para simular
su funcionamiento. Por ejemplo, si queremos investigar algo sobre el funcionamiento
cerebral podemos hablar en términos informáticos: si la mente fuese como un ordenador,
podríamos establecer la distinción entre las operaciones que hace la máquina, el
«software», y el soporte físico de tales operaciones, el «hardware». Este modelo o
metáfora, ha servido a la Psicología para adentrarse en la investigación de los procesos
internos. Conviene hacer hincapié en el hecho de que la representación que constituye el
modelo es metafórica.

Método científico

La mejor manera de definir al método científico es a través de sus características:


-Tiene una hase empírica, es decir, es un proceso continuo de contrastación con los
hechos de la naturaleza al que deben someterse sus enunciados o hipótesis.

-Es perfectible según Delclaux (1987b), el modo de proceder del método científico
es gradual quedando sus conclusiones siempre sujetas a revisión, proporcionando
verdades parciales y no verdades completas y corrigiéndose a sí mismo, identificando sus
propios errores y buscando respuestas aún mejores.

- La sistematicidad: para que la investigación sea fiable y válida el proceso de


investigación debe ser sistemático y controlado.

- La fiabilidad o replicabilidad: un estudio debe ser fiable, es decir, debe ser


consistente y replicables sus métodos, condiciones y resultados; si se aplica el método de
forma correcta otro investigador debería llegar a los mismos resultados que nosotros
utilizando el mismo procedimiento.

- La validez: hace referencia tanto a la exactitud de la interpretabilidad de los


resultados (validez interna), como a la generalización de las conclusiones (validez
externa).

- La flexibilidad: el método se adapta al objeto de estudio de las diversas ciencias

En la evolución del método científico se han considerado diversas formas, que muy
esquemáticamente podemos caracterizar en:

- El método inductivo: considera que sólo se puede llegar al conocimiento a través


de la experiencia. Su punto de partida es la observación de la realidad para acumular
datos, ordenarlos y establecer a partir de ellos conclusiones o leyes generales aplicables
a todo el conjunto de observaciones.

- El método deductivo: se caracteriza por partir de un conjunto de axiomas o


principios indemostrables a los que se llega por procesos de razonamiento que no se
apoyan en observaciones empíricas y por establecer un conjunto de reglas de
procedimiento a partir de las cuales se realizan deducciones lógicas aplicables a los datos
reales.

- El método hipotético-deductivo: utiliza de forma combinada la inducción y la


deducción. La ciencia en su búsqueda de conocimiento necesita tanto de los datos
empíricos como de las teorías y el proceso de investigación científica puede comenzar
tanto desde una teoría como desde los datos. En la actualidad la mayor parte de las
disciplinas utiliza este método.

Investigación científica en psicología

El método hipotético deductivo es la forma del método científico que


mayoritariamente se utiliza en Psicología. Este método se define por una serie ordenada
de fases o pasos que debe seguir el investigador. Estas fases son:

.1) Planteamiento del problema u objeto de estudio y definición de variables.

2) Formulación de hipótesis contrastables.

3) Establecimiento de un procedimiento o plan de recogida de datos (dentro de una


determinada estrategia metodológica): selección de la muestra, aparatos y/o materiales.

4) Análisis de datos.

5) Interpretación de los resultados: discusión y conclusiones.

6) Elaboración del informe de investigación o comunicación de resultados.

Estas etapas se corresponden niveles descritos por Arnau (1990ª). En el nivel


teórico conceptual se incluyen las fases del planteamiento del problema y de la
formulación de hipótesis contrastables. En este nivel lo que más interesa es la selección
del problema de investigación, los criterios de selección, cómo se plantea un problema y
cómo se hace la revisión bibliográfica sobre el mismo y cómo se formulan las objetivos
y/o hipótesis del problema de investigación.

El segundo y tercer nivel -técnico metodológico y estadístico-analítico-


constituyen los aspectos propiamente metodológicos. En el nivel técnico- metodológico
se vinculan los planteamientos teóricos con la realidad empírica, ya que en él se
seleccionan los métodos o procedimientos para la recogida de datos relevantes a las
hipótesis (o estrategias y diseños de investigación).

Dependiendo del problema de investigación y de los objetivos seleccionaremos una


u otra estrategia. Además de determinar el plan, diseño o procedimiento de recogida de
datos mediante una estrategia, se toman decisiones sobre cómo seleccionar la muestra
(muestreo) y los instrumentos para la recogida de datos.

En el tercer nivel, el estadístico-analítico, lo constituye el tratamiento estadístico


de los datos obtenidos mediante el diseño correspondiente. Se analizan los datos
describiéndolos, relacionándolos, comprobando hipótesis, estimando parámetros, etc. En
la investigación cuantitativa la estadística proporciona al investigador la herramienta más
adecuada para estudiar los datos de la investigación y la técnica más adecuada estará en
función del nivel de medida de los datos y otros aspectos a considerar.

El investigador debe saber qué aplicar y cómo interpretar los análisis estadísticos
obtenidos. En la interpretación y discusión de los resultados el autor de la investigación
valora lo que suponen sus resultados respecto a los objetivos y las hipótesis planteadas.
Éstas nos suele llevar de nuevo al nivel teórico-conceptual ya que sugieren nuevas vías
de investigación, iniciándose otra vez el proceso investigador y de ahí la estructura cíclica
característica de toda investigación científica.

Fases del método científico en psicología

1. Planteamiento del problema y definición de variables

1.1. El problema

La investigación parte siempre de la identificación de un problema al que no se


puede responder con los conocimientos existentes hasta el momento. La formulación del
problema es una etapa crítica del proceso. En ella se propone una posible solución que
tendrá que ser contrastada a través del diseño de procedimiento, la recogida y el análisis
de datos. Si se sigue el método científico, entonces este conocimiento formará parte del
cuerpo de conocimientos científicos.

Sin embargo, que se resuelva un problema no significa que ahí acabe todo. Muy al
contrario, la ciencia avanza en la medida en que un problema es capaz de generar nuevos
problemas. El problema de la investigación suele formularse en términos de pregunta en
la que suelen expresarse cómo se relacionan las variables.

1.2. Definición, medición y clasificación de las variables

1.2.1. Definición

Es una característica que puede asumir más de un valor. Los valores pueden ser
numéricos o categóricos. Si a la variable se la designa como X, sus valores se designarán
como X1, X2,. .. , Xn. Ejemplos de variables psicológicas serían el cociente intelectual
(Cl), la depresión, etc. Según vimos, estos conceptos serían constructos, pero los
consideramos variables cuando los definimos en términos explícitos y determinamos qué
indicios son los que nos permiten obtener una medida de ellos.
1.2.2. Medición de variables

Para poder trabajar en la elaboración de resultados necesitamos traducir a números


los rasgos psicológicos que nos interesen y ello significa medir. Medir es asignar
números, de forma congruente, a los fenómenos observados. La medición en Psicología
es la asignación de números a objetos o características, mediante una serie de reglas, que
permiten operativizar la conducta. Por lo tanto, medir supone poner en relación el mundo
ideal de los números y el real de los objetos, de modo que las relaciones que se dan en el
mundo numérico preserven exactamente las relaciones que se observan en el mundo
empírico y sólo serán válidas aquéllas relaciones numéricas que puedan ser verificables
empíricamente.

Atendiendo a las relaciones que se pueden verificar empíricamente entre las


modalidades de los objetos o características pueden distinguirse cuatro tipos de escalas
de medida:

a) Escala nominal: Se caracteriza porque con ella sólo pueden representarse, y


aceptarse como válidas, las relaciones de igualdad-desigualdad de las modalidades de
una determinada característica.

En este nivel de relaciones empíricas (igualdad-desigualdad), los números son


simples símbolos y no tiene sentido realizar con ellos operaciones matemáticas tales
como sumar, restar, multiplicar o dividir.

El tipo de transformación admisible que se puede aplicar en esta escala será


cualquiera que preserve las relaciones de igualdad-desigualdad de los objetos respecto a
una determinada característica (por ejemplo, respectos al sexo, a la mujer se le puede
asignar el 1 y al hombre el 2).

b) Escala ordinal: Los objetos pueden manifestar determinada característica en


mayor o menor grado unos que otros, de ahí que la escala que los represente deba
preservar esas relaciones empíricas observadas. Por ejemplo, las relaciones observadas
en los minerales presentan, además de la igualdad-desigualdad, una ordenación en
función del grado de dureza.

Con los valores asignados a las categorías de una variable medida a nivel ordinal,
al igual que ocurría a nivel nominal, tampoco podemos realizar operaciones como la
suma, resta, multiplicación o división porque no tiene sentido el resultado de estas
operaciones.
Formalmente, si la magnitud de la característica del objeto Oi es igual que la de
otro, se le asigna el mismo número Xi. Si es mayor, se le asigna un número mayor y si es
menor, un número menor. Las transformaciones que admite la escala ordinal son las que
preserven el orden de magnitud, creciente o decreciente, en que los objetos presentan
determinada característica.

c) Escala de intervalo: Si además de la posibilidad de evaluar la igualdad-


desigualdad de los objetos y la mayor o menor magnitud que presenten, se puede contar
con alguna unidad de medida, aunque ésta sea arbitraria, se permitirá establecer la
igualdad o desigualdad de las diferencias entre las magnitudes de los objetos medidos.
Lo que no podíamos saber con las escalas ordinales, en las escalas de intervalo sí podemos
saber que la distancia entre los números asignados a los objetos son iguales entre ellos
(entre el 1 y 2, es la misma que entre 3 y 4).

Por ejemplo, las escalas que permiten medir la temperatura de los objetos. Para la
escala Celsius se introduce en agua destilada una varilla de cristal con mercurio en su
interior y se enfría hasta el nivel de congelación. En ese punto de la varilla se marca el 0.
Luego se calienta el agua hasta la temperatura de ebullición y se marca hasta donde ha
ascendido el mercurio con un 100. El espacio entre el 0 y el 100 se divide en 100 partes
y cada parte será 1 °C. Esta unidad de medida y el origen de la escala (el 0) son arbitrarios
(en el ejemplo, el cero no significa ausencia de temperatura, sino la temperatura de
congelación del agua destilada). Esta es una de las características de la escala de intervalo:
que el punto 0 es arbitrario y no significa carencia absoluta de la característica medida (a
diferencia de la escala de razón que veremos más adelante).

La asignación de los números a los objetos para que preserven las relaciones
empíricas observadas, deberán cumplir las siguientes condiciones: si la diferencia entre
las magnitudes de dos objetos es igual a la diferencia entre otros dos, entonces también
existirá esa diferencia entre los números asignados. Si la diferencia es mayor existirá una
diferencia numérica mayor y si es menor, una menor.

d) Escala de razón: En las ciencias de la naturaleza podemos encontrar ejemplos de


características que se pueden medir en escala de razón, es decir, donde el punto cero es
absoluto y significa ausencia de la característica: la distancia, el peso, la velocidad, el
tiempo.
Formalmente, si la razón entre las magnitudes entre dos objetos es igual a otra
razón, entonces también las razones entre los números asignados serán iguales, y
mayores y menores, respectivamente.

Por lo que se ha podido ver, existe una relación entre las diferentes escalas, pues las
propiedades que tiene una escala nominal son admitidas por la ordinal y las propiedades
de ésta por la de intervalo, y las de todas ellas por la de razón. Además, el nivel de
medida de una variable que se obtiene con cada escala condiciona el tipo de
operaciones matemáticas que se puedan llevar a cabo con esas variables y, por
añadidura, el cálculo de estadísticos. Por tanto, el nivel de medida es uno de los
criterios determinantes a la hora de seleccionar los contrastes de hipótesis más
apropiados para los datos de la investigación.

1.2.3 Clasificación de variables

Las variables pueden ser clasificadas de acuerdo con distintos criterios. En concreto
nos interesa especialmente la clasificación desde el punto de vista metodológico.
Atendiendo a la perspectiva metodológica, es decir, según el papel que las variables
juegan en la investigación, tendríamos tres tipos:

a) Variables Independientes: Son las variables a las que el experimentador decida


manipular, de acuerdo con su hipótesis para estudiar sus efectos sobre otra.

b) Variables Dependientes: Es aquello que decidimos medir para ver los efectos
producidos por la manipulación de la variable independiente, también de acuerdo con su
hipótesis.

En definitiva, será variable independiente lo que se considere «causa» y variable


dependiente lo que se tome como «efecto» en la hipótesis de la que se parte.

c) Variables Extrañas: son las variables ajenas a la relación buscada entre las dos
variables anteriores y que pueden influir en dicha relación; estas variables, procedentes
de los sujetos, del ambiente o de la situación experimental, que no siendo variables de
estudio (variables independientes) pueden incidir en la variable dependiente. Estas
variables se deben prever, detectar y controlar en la investigación.
Otro criterio de clasificación y denominación de las variables está relacionado con
el nivel de medición que ha sido utilizado y de los valores categóricos o numéricos que
pueden proporcionar. Se describen y relacionan en el siguiente cuadro:

Cuadro 1.7. Equivalencia nivel de medida y tipo de variables


Nivel de medida Tipo de variable
Dicotómica (2 categorías)
Nominal Cualitativa
Politómica (>2 categorías)
Ordinal Cuasicuantitativa
Intervalo Discretas (Valores enteros)
Cuantitaviva
Razón Continuas (Valores reales)

2. Formulación de la hipótesis

Consiste en ofrecer a partir de los supuestos teóricos una predicción tentativa del
problema objeto de estudio, de forma que se pueda contrastar con los datos obtenidos.
Las hipótesis cumplen una doble función: epistemológica, dado que son los elementos
que permiten relacionar las teorías con los hechos de la naturaleza; y metodológica,
porque orientan todo el proceso de la investigación.

Por un lado, los requisitos para la formulación de la hipótesis son: ser consistente
(esto es, formulada sin contradicción entre sus partes), ser compatible con otras teorías,
leyes, y, por último, ser comprobable empíricamente. Además, los principios a tener en
cuenta al elegir la hipótesis son la simplicidad y la generalización, es decir, elegir la más
sencilla y de mayor alcance explicativo. Asimismo, las hipótesis formuladas en términos
generales, deberán operativizarse para ser contrastadas. La operativización es el acto de
traducir el constructo en su manifestación externa, por tanto conlleva definir con exactitud
las variables implicadas y la relación entre ellas, cuáles serán las condiciones antecedentes
y las consecuentes.

Ahora bien, ¿qué significa contrastar una hipótesis? Pues es ponerla relación con
los hechos para determinar si se adecúa o no a ellos. Debemos tener en cuenta que una
hipótesis nunca se puede probar, sólo se puede contrastar. Esto quiere decir que si la
hipótesis se ve apoyada por los datos se acepta y, temporalmente, se sigue manteniendo
como verdadera. No obstante, si esto no es así, se rechaza y otra hipótesis se asume como
cierta. La decisión sobre aceptar o rechazar la hipótesis, se hace con un cierto margen de
error o nivel de confianza, que es una probabilidad. Así pues, los enunciados científicos
siempre se plantean de forma provisional, hasta que los datos demuestren lo contrario.
Como decíamos anteriormente, en cualquier investigación y una vez que hemos
definido el problema, para proceder a su estudio empírico. Es necesario redefinido,
creando lo que se suele denominar una hipótesis de trabajo. No debemos confundir esta
hipótesis con las hipótesis generales (mucho más amplias) que se derivan de las teorías.
La hipótesis de trabajo (también llamada de investigación o científica) es una forma muy
concreta de formular un aspecto del problema, de manera que pueda ser objeto inmediato
de comprobación empírica.

En general, podemos decir que para formular adecuadamente la hipótesis de trabajo,


es necesario que ésta exprese una relación concreta que se espera entre las variables, lo
cual, además, exige una correcta formulación de las variables que intervienen en la
situación. La relación entre las variables ha de ser la única explicación posible de los
resultados que se predicen en la hipótesis, de modo que cualquiera podría crear la misma
situación.

En las investigaciones con una estrategia cuantitativa, la estadística juega un papel


crucial pues nos permite decidir si una hipótesis es o no compatible con los datos. Para la
contrastación estadística a partir de la hipótesis de trabajo se formulan las hipótesis
estadísticas: hipótesis nula e hipótesis alternativa, que veremos aplicadas en el apartado
de análisis de datos.

3. Establecimiento de un procedimiento para la recogida de datos

Esta es una etapa muy importante porque las conclusiones del estudio se basarán en
dichos datos. El investigador debe decidir qué clase de datos necesita recoger (edad de
los sujetos, respuestas a un cuestionario, medidas psicofisiológicas, etc.) y con qué
instrumentos o técnicas debe recogerlos, eligiendo instrumentos existentes o elaborando
instrumentos propios. Es decir, tendrá que tomar decisiones sobre el procedimiento
(grupos a formar, materiales a utilizar, tarea a realizar, cómo se van a medir y controlar
las variables extrañas, etc.) que mejor se ajuste a sus objetivos dentro de la estrategia
metodológica (experimental, observacional, de encuesta, cuasi-experimental, etc.) con la
que se desarrolle el estudio. Esto supondrá tomar decisiones sobre el diseño concreto y
sobre las técnicas de recogida de datos.

Antes de empezar con el procedimiento definitivo de recogida de datos, se


recomienda hacer un estudio piloto que es la aplicación del procedimiento (completo o
parte de él) previsto para la investigación en una pequeña muestra de personas con el
objeto de detectar problemas, inconvenientes o ambigüedades susceptibles de ser
corregidas.

3.1 Selección y descripción de la muestra

Para elegir una muestra, primero hay que especificar la población del estudio
(Conjunto, finito o infinito, de elementos definidos por una o más características de las
que gozan todos los elementos que la componen y sólo ellos). Luego, se hará el muestreo
donde elegirá la muestra, la cual es un subconjunto de elementos de una población. Para
que los resultados puedan ser generalizados a la población debe tener como característica
fundamental la representatividad: se trata de que sus elementos representen al conjunto
de elementos que componen la población. El muestreo puede ser:

a) Probabilístico: Aquel en que puede calcularse de antemano la probabilidad de


obtener cada una de las muestras posibles. Es el único tipo de muestreo capaz de darnos
el riesgo que cometemos en la inferencia. Con él se obtiene una muestra representativa
de la población.

b) No probabilístico: Muestreo basado en criterios fijos, o por razones de


accesibilidad.

Ahora bien, a cada elemento de la muestra se le denomina unidad muestral. Esta


puede ser un individuo, un grupo de individuos, animales, países, ciudades, autonomías,
etc. Los sujetos constituyentes de la muestra utilizada en el estudio se denominan
participantes. Si son humanos se describirán características como la edad (valores
mínimos-máximos, media y desviación típica) el sexo (proporciones de presencia en la
muestra) o cualquier otro aspecto que pueda ser relevante para el estudio en cuestión. Es
muy importante determinar cuántas unidades muestrales vamos a necesitar (tamaño de la
muestra) en función de las necesidades del estudio y las técnicas estadísticas previstas y
qué procedimiento de muestreo debe seguirse, con el objetivo de que la muestra sea lo
más representativa posible de la población.

3.2. Aparatos y materiales

Una decisión importante es la elección de los instrumentos y/o materiales de la


investigación, la cual estará en función de la naturaleza de las variables del estudio, los
objetivos de la investigación, etc. Queremos destacar no sólo la importancia de los
instrumentos para recabar datos fiables y válidos que nos permitan extraer conclusiones
relevantes, sino también la importancia de las condiciones en que se aplicarán (momento,
lugar, quién lo hará, etc.).

Existe una gran gama de posibilidades por lo que habrá que considerar por ejemplo,
respecto a los instrumentos a utilizar 1) si son test o cuestionarios estandarizados,
convendría conocer su estandarización, fiabilidad y validez, el número de Ítems que
contiene y el formato de respuesta y 2) si los instrumentos son elaborados por el propio
investigador, se deberán contemplar cada uno de los aspectos citados, aunque sea con
datos del propio estudio. En cualquiera de los dos casos el investigador debe tener buenos
conocimientos de psicometría para la selección o elaboración de los instrumentos de
medida.

En cuanto a los aparatos a utilizar deben considerarse las distintas opciones


disponibles, sus prestaciones y su coste, así como la fiabilidad del aparato. Para finalizar,
subrayaremos que todos estos aspectos habrá que detallarlos en el informe de la
investigación.

4. Análisis de datos

Después de recoger los datos, procedemos a su análisis mediante técnicas


estadísticas, con el fin de obtener resultados interpretables en relación con los objetivos
de la investigación. El procedimiento de recogida de datos que hayamos elegido
determinará, en buena medida, las técnicas posibles a aplicar para analizar esos datos. Es
importante, por tanto, tener en cuenta que las diferentes decisiones del diseño y de
planificación de una investigación afecta a diversas etapas del proceso.

En general, cuando disponemos de un conjunto de datos debemos proceder a


resumirlos, buscar regularidades, buscar relaciones entre ellos y considerar las
posibilidades de generalización a la población desde la muestra (proceso de inferencia).
Lo primero que debemos hacer con los datos es organizarlos y describirlos a través de
puntuaciones resumen, para que resulten manejables y sobre todo más informativos. Esta
tarea le corresponde a la estadística descriptiva. Además, también en esta primera fase
del análisis, puede interesarnos estudiar las relaciones y el modelo que inicialmente mejor
se ajusta a los datos, para lo cual podemos recurrir al análisis exploratorio (Tukey, 1977),
pues todo ello redundará en beneficio de una mayor eficacia en el uso posterior de la
estadística inferencial.
La estadística inferencial va más allá de describir de forma organizada los datos
obtenidos en la muestra del estudio, nos permite considerar las posibilidades de
generalización a la población desde la muestra. Por ejemplo, una vez realizado un
experimento en el que obtenemos datos de dos grupos: uno que realiza la tarea en la
condición experimental con incidencia de la variable independiente cuyo efecto queremos
medir (grupo experimental) y otro en condición neutra (grupo control), queremos
conocer , comparando las medias de las puntuaciones de los dos grupos, hasta qué punto
los datos de nuestra muestra reflejan un efecto de la variable independiente generalizable
a la población, lo que nos permitirá extraer conclusiones aplicables más allá de nuestro
grupo.

Para contrastar la hipótesis de que las medias de dos grupos son distintas, se calcula
un valor, denominado estadístico de contraste, y que se distribuye de acuerdo a algún
modelo de probabilidad. El estadístico de contraste, en general se plantea como una
medida estandarizada de la discrepancia que hay entre la hipótesis de partida (nula) que
se hace sobre la población (en este caso la hipótesis nula sería que las medias son iguales)
y el resultado de la diferencia de medias obtenido en la muestra. Como criterio de
decisión, si la probabilidad de obtener un estadísitico de contraste con un valor tal (el
obtenido en el estudio) es menor que una cierta cantidad (generalmente 0,05 o 0,01), se
rechaza la hipótesis nula de ausencia de diferencias, por lo que se asume como resultado
(siempre provisional hasta que se demuestre otra cosa) que existen diferencias entre los
grupos y, por tanto, que hay efecto de la variable independiente. En el caso contrario, en
el que la probabilidad resulta mayor que el valor límite asumido, se mantiene la hipótesis
nula de que en la población las medias son iguales, y por tanto no podemos concluir que
las diferencias encontradas entre los grupos sean significativas y en consecuencia no se
atribuyen efectos relevantes a la variable independiente.

La elección del estadístico de contraste más adecuado para analizar nuestros datos
se basará en los objetivos del análisis y en la comprobación de que los datos cumplen un
conjunto de supuestos o características. Entre ellos se encuentran:

a) El nivel de medida y el tipo de variables. Por lo general, niveles de escala de


medida más altos permiten aplicar técnicas estadísticas más potentes. Por tanto, debemos
tender a medir en el nivel más alto posible para disponer de más información y más
posibilidades de trabajo con los datos, ya que los niveles de medida altos incluyen a los
bajos, pero no al revés;
b) La independencia/dependencia de las observaciones. Puntuaciones
procedentes de participantes por lo general proporcionan medidas independientes
(puntuaciones de un sujeto que no proporciona información sobre, ni condiciona la
puntuación de otro sujeto cualquiera; son observaciones independientes), mientras que
dos medidas de misma variable proporcionada por los mismos participantes, tomada en
dos momentos o condiciones distintas, son medidas que se consideran dependientes o
relacionadas, ya que la fuente de medidas es la misma, los mismos individuos.

c) aspectos de la distribución: el ejemplo más conocido es la distribución de la


variable dependiente según la curva normal.

En función de que nuestros datos cumplan unos u otros podremos elegir entre los
llamados contrastes paramétricos y no paramétricos. Los contrastes paramétricos son
los más utilizados en la investigación empírica. Permiten contrastar hipótesis referidas a
algún parámetro (por ejemplo la media o varianza poblacional pero su aplicabilidad se
ve reducida, fundamentalmente por dos razones: 1) requieren del cumplimiento de
algunos supuestos (Generalmente normalidad y distribución homogénea de las varianzas
u homocedasticidad) que en ocasiones pueden resultar demasiado exigentes y 2) es
necesario trabajar con unos niveles de medida (escala de intervalo o de razón) que,
especialmente en disciplinas como la Psicología, no siempre resulta fácil de alcanzar. Por
otro lado tenemos los contrastes no paramétricos que son los que nos permiten poner a
prueba hipótesis no referidas a un parámetro poblacional, que no necesitan establecer
supuestos exigentes sobre las poblaciones originales de donde se muestrea, y por último,
que no necesitan trabajar con datos obtenidos con una escala de medida de intervalo o
razón.

Las pruebas estadísticas nos ayudan a aceptar o rechazar nuestras predicciones. Nos
sirven para detectar la probabilidad de que los resultados obtenidos reflejen un efecto
significativo y no sean producto del azar. De manera convencional se ha establecido el
95% de confianza como el umbral mínimo (no es un resultado al azar) para rechazar la
hipótesis nula cuando es falsa. El modo opuesto de mirar esto es decir que hay un 5% o
una probabilidad de 0,05 de riesgo de que un resultado que estamos asumiendo como
cierto (que supone un efecto relevante) ocurra por azar.
1.5. Interpretación de los resultados de la investigación

Esta etapa supone interpretar los resultados obtenidos procediendo a su discusión


y extraer las conclusiones de la investigación. Después de analizar los datos, se
interpretan los resultados obtenidos de acuerdo a los supuestos teóricos bajo los cuales se
ha propuesto la investigación. Para ello, hay que vincular los resultados del análisis de
los datos con las hipótesis de la investigación, con las teorías y con los conocimientos ya
existentes y aceptados en el tema. En un primer momento, los resultados se deben
interpretar en cuanto a la magnitud del efecto obtenido y las tendencias o regularidades
observadas. En un segundo momento se deben comparar estos resultados con los
obtenidos por otros investigadores en trabajos semejantes.

Profundizando un poco en lo dicho en el párrafo anterior, el autor debe explicar qué


significado tienen los resultados respecto a las hipótesis planteadas. No se trata sólo de
describir los resultados en unas conclusiones, sino además se realizará una discusión en
la que se pondrán en relación los hallazgos con las hipótesis formuladas, los modelos
teóricos y las investigaciones afines. Debe evitarse incluir elementos diferentes y nuevos
que no se contemplaron en las hipótesis, extrapolando más allá de la población definida
en el estudio, ni realizar conclusiones no justificadas por los hallazgos. Es en el momento
de la discusión cuando además se deben señalar las implicaciones y la utilidad de los
descubrimientos, interpretando desde diversos puntos de vista, siempre desde el marco
de las hipótesis planteadas. También se debe hacer un análisis crítico de las limitaciones
del estudio. El autor deberá acabar la discusión sugiriendo nuevas vías de investigación,
reconociendo las limitaciones de su propio trabajo y evaluando el alcance los logros
conseguidos. Es definitiva, la interpretación debe terminar con unas conclusiones claras
sobre el trabajo realizado.

1.6. Comunicación de los resultados de la investigación

Todos los trabajos deben acabar con la redacción de un informe escrito u oral que
comunique lo realizado y las conclusiones obtenidas. La redacción del informe es muy
importante en cualquier trabajo porque es donde el investigador transmite a la comunidad
científica lo que ha hecho y cómo lo ha hecho. Se debe exponer de forma sintética, clara
y comprensible tanto los métodos empleados como los resultados de la investigación, con
el fin de poder recibir una evaluación crítica de la misma y que con ello se enriquezca el
saber científico.
La comunicación de los resultados comprende tanto las ponencias a congresos o
reuniones científicas, nacionales o internacionales, como la redacción de un informe o
artículo sobre la investigación para publicar en una revista, libro o sencillamente para
rendir cuentas ante los promotores del estudio.

1.6.1 Estructura del informe de investigación

Los puntos prefijados para redactar un informe no son exactamente los mismos
siempre, ya que dependen del tipo de investigación y de la ciencia estudiada. Por ejemplo,
la redacción de un informe cualitativo tiene ciertas características propias como: la
ausencia de hipótesis específicas y cuantificables que someter a prueba, la precisión de la
definición de las variables, la inclusión de una sección sobre la reflexividad, etc.

A pesar de las individualidades de cada metodología, hay una estructura común a


todo informe de investigación:

1.6.1.1. Título, autor/es y filiación

Indica el objetivo de la investigación, es decir, responde a la pregunta «de qué trata


el estudio», por lo que debe contener las principales variables implicadas en la
investigación, ser breve (entre 10 y 12 palabras) y conciso (no proporcionar más
información de la necesaria).

Otro componente del manuscrito es la información relativa al autor/es y a la


filiación del mismo/s, es decir, su nombre/s y la/s institución/es a la/s que pertenece/n
(universidad, instituto o empresa). Respecto a los nombres, primero aparece el nombre
completo y luego el apellido (e. g. Andy Field, y no A. Field ni Field, A.), omitiendo su
título o grado (e. g. Dr., profesor, etc.). El orden de aparición de los autores es según su
grado de contribución.

1.6.1.2. Resumen o abstract

Es la síntesis de la investigación. Consta de un párrafo (en torno a 120 palabras)


que contiene información sobre: a) el problema que se investiga; b) el método empleado,
incluyendo las pruebas y aparatos utilizados, el procedimiento de recogida de datos y las
características de los participantes; c) los resultados, y d) las conclusiones.

Todos aquellos escritos presentados en habla no inglesa, necesitan incluir junto con
el resumen lm abstract, es decir, una traducción del resumen al inglés.
Muchas revistas requieren en su publicación que el autor designe explícitamente un
conjunto de cuatro a ocho palabras clave (keywords) o términos que describen el
contenido principal del documento. Estas palabras clave, junto con las que aparecen en el
título y en el resumen, van a ser de suma importancia para la utilización de motores de
búsqueda en Internet.

1.6.1.3. Introducción

En esta sección se responde a las cuestiones Qué se hizo y Por qué. En primer lugar
se describe, de manera general, el problema que se aborda en la investigación. Para poder
realizar este objetivo, se recurre a la revisión bibliográfica de investigaciones precedentes
sobre la misma temática, donde se seleccionarán aquellos estudios que están relacionados
de manera más directa con nuestra investigación, citando las contribuciones de otros
autores que nos han ayudado al entendimiento del problema a investigar. Lo que debe
proporcionar esta sección es la línea de ubicación del estudio, la relación entre la
investigación y los estudios previos relacionados. Esta manera de realizar la introducción
facilita la justificación de la investigación al reflejar la falta de solución existente al
problema estudiado. Pero en la justificación también es muy importante, aunque difícil,
poder aportar argumentos sobre la relevancia del estudio, es decir, cómo la investigación
ayudará, de forma notable, a la solución del problema investigado. Por ello, es
recomendable que en este apartado se anticipen las posibles consecuencias o aplicaciones
de lo que se espera encontrar tras el estudio.

Además de introducir el problema a estudiar y justificar la investigación, al final de


este apartado de Introducción se deben expresar formalmente las predicciones de la
investigación, o lo que es lo mismo, se deben presentar las hipótesis, aunque en muchas
ocasiones no se lleguen a explicitar, concluyendo el apartado en un último párrafo con
los objetivos de la investigación. Lo que se debe plasmar en la Introducción son las
hipótesis de trabajo, en las cuales se refleja la dirección o sentido del cambio que
esperamos encontrar.

Debemos tener en cuenta, cara a la citación de trabajos, que cuando estos tienen
doble autoría cada vez que se presente la referencia dentro del texto se deben citar a ambos
autores. Si el trabajo tiene tres, cuatro o cinco autores se deben citar todos la primera vez
que se presenta la referencia, pero en las citas subsecuentes deberá aparecer únicamente
el apellido del primer autor seguido de «et al .». Si el trabajo tiene seis autores o más,
desde la primera cita solo hay que poner el apellido del primer autor seguido de et al. y
del año de publicación.

1.6.1.4. Método:

En este apartado se describe detalladamente cómo se ha desarrollado la


investigación, es decir, el investigador responde a la pregunta Cómo se hizo. Una buena
redacción del Método servirá para que otros investigadores puedan replicar el estudio,
además de facilitar el evaluar la calidad del mismo (su fiabilidad y validez). Es habitual,
aunque no necesario, dividir este apartado en:

a) Participantes: En este apartado se aporta la información necesaria sobre las


personas o animales que participaron en la investigación: quiénes; cuántos; a qué
población pertenecen; en el caso de personas, sus características sociodemográficas de
interés para el estudio (edad, sexo, nivel de estudios, etc.); cómo se seleccionaron, etc.
También recibe el nombre de muestra, ya que se explicita cómo está formada la misma
(participantes, selección, etc.).

b) Materiales/aparatos/instrumentos: En este apartado se detalla el equipamiento


utilizado, es decir, se describen los aparatos (e. g., equipos mecánicos) o materiales (e. g.,
cuestionarios y test) utilizados, así como su papel en la investigación (justificación de su
utilización). Si los instrumentos utilizados son nuevos (e. g., se ha diseñado un
cuestionario para la investigación) se deben describir de forma exhaustiva e
independiente (se puede recurrir incluso a un anexo para presentar la prueba).

c) Procedimiento: En este apartado se describe paso a paso cómo se realizó la


investigación, desde el principio hasta el final de forma cronológica. Debe facilitarse
información sobre cómo eran las condiciones experimentales, si todos los participantes
se expusieron a ellas en el mismo orden o el orden de presentación fue aleatorio, si las
evaluaciones se llevaron a cabo de forma individual o en grupo, cuál fue el intervalo entre
dos experimentos, etc. Es importante proporcionar las instrucciones dadas a los sujetos,
incluso se puede considerar la posibilidad de incluirlas en un anexo (aunque si son simples
o familiares no será necesario).

1.6.1.5. Resultados:

Esta es la tercera sección más importante del informe de investigación y responde a


la pregunta Qué se encontró (donde además se incluyen los detalles de cómo se analizaron
los datos). En esta sección se muestran los datos obtenidos de forma resumida, ya que los
datos en bruto no se incluyen en el informe de investigación propiamente dicho aunque,
en caso de estar interesados en ellos, se pueden solicitar al autor por medio de
correspondencia privada. Por ello, y para presentar los resultados más relevantes del
estudio recurrimos: a) por un lado, a la estadística descriptiva (e. g., índices de tendencia
central y de dispersión, como son la media y la desviación típica) que nos sirven para
resumir los datos, y b) por otro, a la estadística inferencial que nos aporta información
sobre la falsación o no de nuestras hipótesis nulas tras la realización de los análisis
pertinentes. Cuando nos servimos de la estadística inferencial debemos aportar datos
relativos: al nombre de la prueba aplicada (sin que sea necesario justificar la elección de
la misma); a los grados de libertad; al valor que se obtuvo del estadístico de prueba; a la
significación estadística alcanzada y; además, también es conveniente, incluir
información sobre el tamaño del efecto y la potencia del contraste.

El Manual de estilo APA nos da una serie de indicaciones para plasmar los datos
estadísticos en el texto. Dada la limitación de tiempo y espacio a la que estamos
sometidos, solo veremos la forma de reflejar dichos datos para dos de las pruebas
estadísticas más empleadas, la prueba t y la X2. En concreto, para la prueba de t se pondría
de la siguiente forma: «t (grados de libertad) = valor del estadístico, nivel de significación
estadística», es decir, por ejemplo t (38) = 3,492, p < .05. Si queremos representar los
datos de una prueba X2 seguiríamos la siguiente expresión: «X2 (grados de libertad,
tamaño de la muestra) = valor del estadístico, nivel de significación estadística., por
ejemplo X2 (2, 2861) = 9,23, p < .01.

Es destacable el uso de tablas y figuras para mejorar la claridad expositiva de los


Resultados, pero éstas no son «autosuficientes » en el sentido de que es necesario resaltar
en el texto los datos más relevantes o significativos que aparecen en ellas, ya que son
recursos complementarios pero no sustitutivos de lo que expresamos con palabras. Por lo
tanto, hay que recordar que cuando se empleen estos recursos deben ser comentados
brevemente en el texto y no introducirlos en el escrito sin ninguna explicación.

1.6.1.6. Discusión y conclusiones

El último de los cuatro apartados esenciales del informe de investigación responde


a la cuestión Qué significado tienen los resultados obtenidos. Esto no significa que se
repita lo dicho en el apartado Resultados, sino que se deben conectar los resultados
obtenidos con los que se señaló en la Introducción que se esperaban encontrar, es decir,
con la expresión formal de las predicciones o hipótesis. Debe aportar una interpretación
a sus resultados o hallazgos.

Se puede comenzar explicando sus principales hallazgos, describiendo cómo estos


apoyan o no sus hipótesis originales. Si sus resultados no permiten rechazar la hipótesis
nula, también debe quedar reflejado en este apartado, es decir, no solo se habla de los
resultados esperados o favorables sino también de los datos que, por el momento,
permiten mantener la hipótesis (este puede ser el origen de otra investigación).

Es importante que comentemos las semejanzas y diferencias con otras


investigaciones previas sobre la misma temática, intentando dar una explicación
constructiva. No es conveniente añadir nuevos estudios en este apartado, sino que es
preferible basarnos en los citados en la Introducción, aunque se podría incluir, de forma
excepcional, alguna nueva referencia.

Es aconsejable terminar con un párrafo breve y rotundo donde se explique cómo ha


solucionado el problema planteado en la investigación y cuál ha sido la principal
aportación del trabajo, es decir, debemos realizar con una/s Conclusión/es sobre la
investigación. Pero antes de introducir dichas conclusiones a las que hemos llegado, es
bueno hacer una mención a las limitaciones del estudio, lo que nos llevará a proponer
futuras investigaciones sobre el problema.

1.6.1.7. Referencias bibliográficas (relación de todas las referencias a otros trabajos


aludidas en el informe, lo que ayudará al lector a ver las fuentes de información seguidas
por el autor y para consultar otras fuentes relacionadas con el tema de estudio),

En esta sección se proporciona el listado de autores y sus publicaciones, de los


cuales se ha hecho mención en el informe. Se diferencia de la bibliografía en que esta es
un listado, lo más exhaustivo posible, de las publicaciones existentes sobre un tema,
independientemente de que se hayan o no citado a lo largo del informe de investigación.

La utilidad de este apartado es que el lector interesado pueda localizar de forma


inequívoca la fuente documental y, además, también le ofrece la oportunidad de encontrar
otras investigaciones relacionadas con la temática. Las referencias se escriben en una
página aparte, después de la Discusión.

El formato que deben tener las referencias bibliográficas, según normas APA, está
en función del tipo de material al que se refiera: publicaciones periódicas, libros, capítulos
de libros, medios electrónicos, etc. En líneas generales, se pueden describir una serie de
pautas a seguir a la hora de redactar la lista de referencias bibliográficas:

Las referencias deben ser escritas en orden alfabético según el apellido del primer
autor o editor.

Las referencias de un mismo autor se ordenan por año de publicación, apareciendo


primero la más antigua. Si el año de la publicación también es el mismo, hay que
diferenciar las referencias añadiendo una letra anexa después del año (2000a, 2000b) y
ordenándolas cronológicamente en la sección de referencias.

Cuando un apellido es compuesto (e. g., de Gaullel, se ordena según la preposición


asegurándose de que esta esté incluida también en la cita. Si el autor es una razón social,
hay que ordenar la referencia de acuerdo a la primera palabra significativa de su nombre
(e. g., The British Psychological Society, va bajo la «B»).

Si la obra referenciada es de dos autores, estos se escriben con el mismo formato,


pero unidos por una «y griega» si la obra está en español, o bien por un «&» si la obra
consultada está en inglés.

Si la obra está escrita por tres o más autores, simplemente se meran separados por
comas -en el orden que se haya establecido la fuente-, salvo el último, quien se asocia a
sus colegas por la «y griega» o «&».

1.6.1.7. Anexos o apéndices

Esta sección es opcional. Aquí se deben incluir todos los materiales, instrumentos y
tablas extensas utilizados durante la investigación que son de interés, pero cuya aparición
en las otras secciones haría que el informe se vea desordenado.

Das könnte Ihnen auch gefallen