Beruflich Dokumente
Kultur Dokumente
Psicosocial
Anlisis de la regresin
Modelos de anlisis
estadstico
I. Conceptos bsicos.
II. Regresin mltiple
Anlisis estadstico
En un sentido amplio, se refiere a todos
los mtodos que describen las relaciones
que se dan entre diversas variables o
dimensiones de variacin.
Conceptos bsicos
Datos: observaciones realizadas de los
individuos o grupos de individuos
Escalas de medida: no mtricas (nominales y
ordinales) y mtricas (intervalos y de razn)
Diseos: estrategias de recogida de datos
Estrategia del diseo: transversal o longitudinal
Modelos de anlisis: sistemas o ecuaciones que
permiten inferir el tipo de relacin entre los
datos
Clases de relaciones: asociativas y causales
Elaboracin de datos
Observacin
directa
Escala
de medida
Dato cientfico
o valor
numrico
Reunin de datos
Sistemas de reunin de datos
a) Tablas
b) Grficos
Tablas
Ejemplos (tablas)
Ejemplos (tablas)
Grficos
Polgono de frecuencias
Es una forma alternativa de representa el
histograma de frecuencias. As, en lugar de
barras se utilizan lneas que conectan las
frecuencias de los intervalos de clase. En el
ejemplo siguiente se muestra la misma
informacin sobre la cantidad de amigos,
pero utilizando el sistema de lneas y no de
barras. De igual modo, se tiene el grfico de
la cantidad de divorcios al aprobarse
correspondiente ley en el Estado de
Nebraska.
Escalas de medida
Las reglas particulares de asignacin de nmeros a
las variables se definen como escalas de medida.
Clasificacin:
Nominal
Ordinal
dbiles
Escalas
De intervalo
De razn
fuertes
Escalas de medida
Nominal
1 = varn
2 = hembra
Ordinal
1
De intervalo
15
16 17
18
19
20 21 22
23
De razn
0
Ejemplos de escalas
Nominal
los valores slo representan categoras
o nombres (gnero, raza, religin, etc.)
Ordinal
los valores representan el orden en
funcin del grado como actitud, preferencia, etc.
De intervalo
la distancia entre los valores se
mantiene
constante
como
la
temperatura,
respuestas correctas, etc.
De razn
cuando adems de la constancia del
intervalo hay un valor cero que coincide con la
ausencia del atributo.
Tipo
Dato
Cualitativa
No-paramtrico
Cuantitativa
No-paramtrico
Cuantitativa discreta Paramtrico
Cuantitativa continua Paramtrico
Prueba estadstica
Nominal
Ordinal
Prueba
no paramtrica
De intervalo
De razn
Prueba no paramtrica y
paramtrica
Variable dependiente
Concepto de diseo
El diseo es una estrategia particular de
recogida de datos y es funcin de los
objetivos o hiptesis propuestos.
Los diseos son transversales y
longitudinales, segn la no presencia o
presencia de la dimensin temporal en el
estudio.
A modo de resumen
Cul es la relacin entre diseo (estudio)
matriz de datos y modelo de anlisis?
Cul es la estructura de cualquier
investigacin cientfica?
Estructura de la investigacin
en ciencias sociales
Diseo
Datos
Modelo anlisis
Problema
Estadstico
Hiptesis
Estimacin
Variables
Inferencia
Modelo de escala
A modo de resumen
Se ha visto la secuencia entre las tres
fases o momentos de una investigacin:
diseo, datos y anlisis.
Es importante conocer la estructura del
diseo,
as
como
los
distintos
procedimientos o tipos de investigacin
(de
Diseo
Datos cuantitativos
Estrategia
ANOVA
Transversal
AR
Grupos
paralelos
Medidas
repetidas
Factorial
Cross-over
Datos cualitativos
Longitudinal
MANOVA
Medidas
repetidas
Antes-despus
Cohortes
Factorial
mixto
Split-plot
TC
Modelo log-lineal
Regresin
logstica
Diseos no experimentales
En
el
contexto
no
experimental
(experimento
verdadero
y
cuasiexperimentales) los diseos suelen ser
observacionales
y
correlacionales.
Los diseos correlacionales se basan en
el anlisis de mltiples variables con el
propsito de estimar la magnitud de
cambio entre ellas.
Sigue
El objetivo es poder predecir la variable
dependiente a partir de la o las variables
predictoras o independientes. Tambin se
pretende explicar la proporcin de
variacin de la variable dependiente por la
o las variables independientes.
Modelos de anlisis
estadsticos (5)
Cuestin!
Una vez recogidos los datos, qu hacer
con ellos?
A esta cuestin cabe responder lo
siguiente: los datos se analizan de acuerdo
con modelos estadsticos adecuados a fin
de derivar consecuencias tericamente
interpretables; es decir, se obtienen
resultados que han de ser interpretados.
Y = f(X) + g(E)
V.Dep.
Parte fija
Parte aleatoria
Concepto
El modelo estadstico, o ecuacin de
carcter lineal, asume que una observacin
Y es el resultado de la combinacin aditiva
de alguna funcin f de variables fijas y de
alguna funcin g de componentes
aleatorios, y que tanto f como g pueden
tomar
parmetros
conocidos
o
desconocidos.
..//..
continuacin
Considerada esta ecuacin como un
modelo estadstico general, se tiene que
cualquier observacin es la suma de dos
partes o componentes: una parte fija o
determinista, f(X), y una parte aleatoria
desconocida, g(E).
Clases de hiptesis
Asociativa
Hiptesis
Causal
Hiptesis asociativa
Hiptesis causal
Contexto
cientfico
asociativas
correlacional
causales
de manipulacin
Hiptesis de investigacin
Hiptesis estadstica
Hiptesis de investigacin
Se plantean por intereses tericos o
sustantivos
Definen cmo se relacionan las variables
Suelen ser asociativas y causales
Hiptesis estadsticas
Las hiptesis estadsticas se establecen
mediante
caractersticas
de
las
poblaciones de origen. Las poblaciones
de origen estn definidas por parmetros,
que son valores de la distribucin fijos
pero desconocidos. Los parmetros
poblacionales se asemejan a los
estadsticos de muestra y se estiman a
partir de estos ltimos.
continuacin
Mediante los datos de muestra podemos
aceptar o rechazar, con cierto grado de
confianza determinado numricamente,
una hiptesis hecha sobre una poblacin
determinada. Tal proceso se conoce como
contraste de hiptesis estadsticas o
prueba de significacin estadstica.
H0: parmetro = 0
H0: = 0
H0: 1 = 2 = = p = 0
en consecuencia,
Si se demuestra, como resultado de la
prueba, que
H0: i = 0, entonces no hay relacin lineal
entre la variable Xi e Y.
En caso contrario, se tiene
H1: i 0, se infiere que hay una relacin
lineal entre ambas v ariables.
Hiptesis nula: H0
En
teora
estadstica
se
asume,
inicialmente, la no significacin de los
parmetros, siendo este supuesto la
hiptesis que se somete a prueba y es
conocida por hiptesis nula (H0). Si se
demuestra que este supuesto no es
aceptable, se recurre a la hiptesis
alternativa (H1) como la explicacin ms
plausible de los datos.
Inferencia de la hiptesis de
nulidad
La inferencia de la hiptesis nulidad nos
lleva a aceptar que la variable
independiente no est relacionada con la
dependiente (inferir su efecto). En caso
contrario, se toma la decisin en favor de
un modelo alternativo asumiendo, como
explicacin ms plausible (no exenta de
riesgo), el modelo de una relacin efectiva
entre ambas variables.
..//..
Verdadera
Falsa
Rechazo H0
Error Tipo I
No error
Aceptacin H0
No error
Error Tipo II
Probabilidad
de azar
= 0.05
Decisin
Significativo
p <
NA(H0)
No significativo
p >
A(H0)
H0
Inferencia de H0
Probabilidad
de azar
Regin de
decisin
Si p > 0.05
A(H0)
Si p < 0.05
= 0.05
NA(H0)
0
Concepto
Las actividades propias de la discusin de
los resultados son las siguientes:
a) Inferir a partir de la prueba estadstica
las consecuencias de carcter terico.
b) Interpretar estas consecuencias a la luz
de las hiptesis formuladas
c) Establecer el alcance de los resultados
mediante la generalizacin de los mismos
Generalizacin de los
resultados
En la generalizacin se evala el alcance
de los resultados, es decir, para qu
poblaciones son vigentes los supuestos
tericos probados. La generalizacin de
los resultados suele realizarse, por lo
comn, con la poblacin de sujetos.
Regresin mltiple
Modelos de la
Regresin mltiple
No Lineal
Lineal
Lineal
Polinmica.
V. Dummy
Raz
Cuadrada
Interac.
Loglineal
Recproca
Exponencial
Y = b0 + b1X1 + e
Observacin
Parte fija
(determinista)
Parte aleatoria
(error)
Descripcin
En el modelo de la regresin simple, Y
denota la variable dependiente (criterio), X
la variable explicativa, b0 es el intercepto,
b1 (la pendiente) denota el parmetro
estimado de la variable X y e es el
trmino
de
error
aleatoriamente
distribuido. Constituye, con el modelo de la
regresin mltiple, uno de los modelos
ms utilizados en ciencias sociales.
(forma matricial
compacta)
Modelos de la regresin de p
variables
Yi 1 2 X 2i 3 X 3i p X pi i
1
2p
i
- Intercepto
- Coeficientes de pendiente parciales
de la regresin
- Trmino residual asociado con Ia i
observacin
Normalidad
En principio, cabe pensar que los datos
tienen una distribucin normal. Es posible
verificar este supuesto, construyendo
histogramas y comprobando la distribucin
de los datos. A veces, en los histogramas
se incluye una lnea que representa la
forma de la distribucin con la que es
posible comprobar si la distribucin de los
datos de desva de esta lnea.
En otras palabras
Los valores de la variable dependiente
son normalmente distribuidos para cada
posible combinacin de los niveles de las
variables X.
Distribucin normal de la
variable edad
Linealidad
Se asume una relacin lineal recta entre las
variables independientes y la dependiente.
En la prctica, este supuesto no suele
verificarse, dado que los procedimientos de
regresin mltiple no suelen ser gravemente
afectados por leves desviaciones de este
supuesto. Si la curvatura de la relacin es
evidente, se pueden
transformar las
variables o recurrir de forma explcita a
componentes no lineales.
Weight (lbs)
75
70
65
60
55
115
125
135
145
Height (ins)
155
165
175
12
12
10
10
Dependent variable
Dependent variable
6
4
2
6
4
2
0
0
0
Independent variable
10
12
Independent variable
10
12
12
12
10
10
Dependent variable
Dependent variable
8
6
4
2
8
6
4
2
0
0
0
Independent variable
10
12
Independent variable
10
12
Homoscedasticidad
Multicolinealidad
La multicolinealidad significa que las
variables
independientes
estn
correlacionadas. Supngase que la altura
de una persona tiene dos predictores: peso
en libras y peso en kilos. Estos dos
predictores son redundantes, ya que el
peso es nico independiente de si se mide
con libras o kilos.
..//..
Sigue
Independencia de errores E(e iej)=0 (i j)
Linealidad
Las variables independientes son
medidas sin error
No debe darse una relacin lineal exacta
entre cualquier subconjunto de variables
explicativas (perfecta multicolinialidad)
Otros modelos
Variables dummy
Las variables dummy (ficticias) se
refieren a las dimensiones en que se
tienen en cuenta dos valores o categoras.
Por lo general, se utilizan los valores 0 y 1
para representar una categora u otra de
la variable (por ejemplo gnero).
Diseo experimental
En el diseo experimental, las variables
independientes suelen ser categricas y, a
veces, dummy.
Suelen recibir el nombre de variables de
tratamiento.
El objetivo es comparar las medidas de
los grupos de tratamiento.
Se utiliza el modelo estadstico ANOVA.
Y = b0 + j bjXj + jk bjkXjXk + e
Modelos no lineales
Modelos
cuyas
variables
tienen
exponentes, como por ejemplo, los
modelos polinmicos, exponenciales, etc.
Cuestin!
Hemos presentado un conjunto de
modelos estadsticos basados en la
regresin simple y mltiple (lineal y no
lineal). La cuestin que se nos plantea es
la siguiente:
Dados unos datos, cmo se procede
para ajustar un modelo estadstico?
Estimacin de parmetros
Inferencia estadstica
Seleccin (1)
c)
Si la variable dependiente es
cuantitativa de distribucin normal, se
aplica la regresin lineal. Si la variable
dependiente es categrica, entonces la
alternativa es la regresin logstica.
d) Cuando se tiene una sola variable
independiente, el modelo de la regresin
es simple. Con dos o ms variables
explicativas el modelo de la regresin es
mltiple.
Cuestin!
Dada la importancia que tienen, para el
ajuste el modelo y la interpretacin de los
resultados, los parmetros o coeficientes,
cabe distinguir entre los coeficientes b
(no estandarizados) y los coeficientes
(beta o estandarizados).
..//..
A propsito de la interpretacin
de los coeficientes
Los parmetros b tienen la ventaja de
que se interpretan en unidades de medida
originales.
Los coeficientes son directamente
comparables en cuanto a su importancia
en la variable Y. No pueden ser
interpretados en la escala de medida
original.
..//..
Ejemplo de
El valor beta es una medida de la
intensidad con cada predictor influye en la
variable criterio. Es medida en unidades
de desviacin estndar. As, un valor beta
de 2.5 indica que un cambio en una
unidad estndar del predictor resulta un
cambio de 2.5 unidades estndar en la
variable criterio.
Inferencia y significacin
estadstica (3)
Medidas de variacin
Pruebas de significacin
Medidas de variacin
Coeficiente de determinacin
mltiple (R2)
Proporcin de variacin en Y explicada
por todas las variables X tomadas en su
conjunto.
Jams decrece cuando una nueva
variable X es introducida en el modelo.
La prueba de R2 = 0 expresa que todas las
variables X, de forma conjunta, no
explican la variacin de Y.
Pruebas de significacin
En el contexto de la regresin pueden
seguirse, como se ha indicado, dos
estrategias de prueba:
a) Prueba del modelo completo, con todos
los coeficientes. Para ello se usa el
coeficiente de determinacin (R2) mediante
el estadstico F.
b) Prueba de los coeficientes individuales
de la regresin con el estadstico t.
..//..
R2
ajustado:
el
coeficiente
de
determinacin tiende, en cierto modo, a
sobre-estimar la bondad del modelo
cuando se aplica al mundo real. Por ello,
se calcula el coeficiente de determinacin
ajustado que tiene en cuenta el nmero de
variables del modelo y el nmero de
observaciones (participantes) en que se
basa el modelo.
Inconvenientes de R2: no sirve para
comparar modelos.
R ajustado
2
clculo
n -1
R2 ajustado= 1 - (--------------)(1-R 2)
np1
Coeficiente de determinacin
mltiple (R2)
Proporcin de variacin en Y explicada
por todas las variables X tomadas
conjuntamente.
El estadstico R2 mide la contribucin total
de las Xs.
Variacin explicada SC yy SCE
SCE
R
1
Variacin total
SC yy
SC yy
2
Prueba de R
Hiptesis a probar:
H0: 1= k= 0
H1: al menos un parmetro es no cero,
k 0
Puesto que no hay un forma de
distribucin de probabilidad para el
estadstico R2, se utiliza en su lugar el
estadstico F (ANOVA aplicado a la
regresin).
Qu tipo de prueba ha de
usarse?
La distribucin utilizada se denomina distribucin
de Fisher. El estadstico F es utilizado con esta
Curva de la distribucin de F
Area =
F,v ,v,v
1
1
reject H0
Prueba estadstica:
23.751
Decisin:
Rechazo con = 0.05
Conclusin:
= 0.05
3.11
H0: j = 0
H 0: j = 0
H 1: j 0
Prueba estadstica: t b / s
bj
Se utiliza la t de Student: el valor estimado del
parmetro partido por su error estndar.
Regin de rechazo de H0:
to > t (o to < t)
Prueba de H0: bi = 0
H0: 1 = 0 (X1 no contribuye)
H1: 1 0 (X1 contribuye)
H0: 2 = 0 (X2 no contribuye)
H1: 2 0 (X2 contribuye)
H0: 3 = 0 (X3 no contribuye)
H1: 3 0 (X3 contribuye)
Sigue
Pruebas estadsticas
.
b1
t= s
b1
bi - t/2,n-k-1sbi
to
bi + t/2,n-k-1sbi
Significacin coeficientes
individuales
El nico parmetro estadsticamente
significativo es el asociado a la Variable
Ingresos.
Prueba estadstica:
H1: 2 0
gl = 14
Valores crticos:
Rechazo H0
.025
-2.145
Rechazo H0
.025
0 2.145
Conclusin:
Hay evidencia de un efecto
significativo.
Intervalos de confianza
Algunos autores prefieren los
confianza a la prueba t.
intervalos de
Prueba de significacin de
modelos parciales
Sigue
Hiptesis nula:
La variables del conjunto no mejoran
significativamente el modelo, cuando
todas las otras son incluidas.
Los modelos deben estimarse por
separado
Yi b0 b1X 1i b2 X 2i
De la tabla ANOVA de
la regresin para
Yi b0 b2 X 2i
Yi b0 b1 X 1i b2 X 2i b3 X 3i
De la tabla ANOVA de
la regresin para
Yi b0 b3 X 3i
Procedimientos de seleccin
de variables
Tipos de procedimientos
Mtodos jerrquicos de
seleccin de variables
En los mtodos jerrquicos las variables
entran en el modelo de acuerdo con un
orden determinado. El orden depende de
las consideraciones tericas o de
resultados previos.
Desde la perspectiva estadstica, el orden
de entrada de las variables en el modelo
viene determinado por la fuerza de su
correlacin con la variable criterio.
Stepwise selection
Cada predictor o variable independiente
es entrando de forma secuencial y su
valor es evaluado. Si aadir el predictor
contribuye al modelo, entonces es
retenido y el resto de variables son
entonces reevaluadas para probar si
siguen contribuyendo al xito del modelo.
Si no contribuyen significativamente son
eliminadas.
Sigue
A cada paso del proceso, se observa si la
variable menos significativa del modelo
puede ser removida debido que a su valor
F, FMIN, es menor que el especificado o
valor F por defecto.
Sigue
Si ninguna variable puede ser removida,
se verifica si la ms significativa que no
est en el modelo puede ser aadida
dado que su valor F, FMAX, es el mayor
que el especificado o por defecto.
El procedimiento se para cuando no se
puede aadir o eliminar ninguna otra
variable.
Forward selection
Al igual que el procedimiento stepwise, las
variables son entradas secuencialmente
en el modelo.
La primera variable considerada para
entrar en el modelo es la que tiene una
mayor correlacin positiva o negativa con
la variable dependiente.
Sigue
La variable es entrada en el modelo, slo
cuando satisface el criterio de entrada
(tiene un valor F mayor que el criterio).
El procedimiento se para cuando no hay
ms variables que se ajusten el criterio de
entrada.
Backward selection
Se empieza con todas las variables del
modelo y se elimina la menos til a un
tiempo. Una variable, cuyo valor p
asociado a la F parcial es mayor que un
valor prescrito, PMIN, es la menos til y
ha de ser eliminada del modelo. El
proceso contina hasta que no puede
eliminarse ninguna otra variable de
acuerdo con el criterio propuesto.
Sigue
Una vez eliminada la variable del modelo,
no puede ser entrada de nuevo en un
paso posterior.
Remove
Es un procedimiento de seleccin de
variables en que se eliminan todas las
variables de un bloque en un solo paso.
A modo de resumen
Finalizada la prueba de significacin del
modelo o de los coeficientes, es posible
llevar a cabo un anlisis de residuales de
forma
grfica
(mediante
los
correspondientes plots) o bien utilizando
la prueba de Durbin-Watson.
Multicolinealidad
Estadsticos de colinealidad
Tolerancia y VIF (variancia
inflation factors)
Tolerancia: Una primera medida para para
probar la colinealidad o no dependencia lineal
entre los regresores (Tp = 1 Rp2).
Cuando tiene un valor mximo de 1, la variable
no tiene ningn grado de colinealidad con las
restantes, Un valor 0 indica que la variable es
una combinacin lineal perfecta de otros
regresores. Es deseable que, en general, sea
mayor a .40
Sigue
VIF (variance inflation factor): a medida que es
mayor la multicolinealidad, en un de los
regresores, la variancia de su coeficiente
comienza a crecer. La multicolinealidad infla la
variancia del coeficiente (VIFp= 1/(1-Rxp2).
La VIF tomar un valor mnimo de 1 cuando no
hay colinealidad y no tendr lmite superior en el
caso de multicolinealidad.
Sigue..
En presencia de multicolinealidad, una
solucin lgica consiste en eliminar del
modelo aquellas variables con ms alto
VIF (o ms baja tolerancia).
Diagnsticos de colinealidad
Dimensiones: factores diferentes que se hallan
en el conjunto de variables independientes.
Autovalores: los valores prximos a 0 indican
colinealidad.
ndices
de
condicin:
raz
cuadrada
(autovalormayor/autovalor). Valores por encima
de 15 indican posibles problemas de
colinealidad
Proporciones de variancia: proporcin de la
variancia de cada coeficiente de la regresin
parcial bj que est explicada por cada factor.
Sigue
Proporciones de variancia: Hay problema
de colinealidad si una dimensin (de
ndice de condicin alto) explica gran
cantidad de la variable de dos o ms
variables.
Resto de supuestos
Sigue
DRESID: residuos eliminados; es decir, al
efectuar los pronsticos se elimina de la
ecuacin el caso sobre el que se efecta el
pronstico.
ADJPRED: pronsticos ajustados; es decir,
valores pronosticados sin incluir el caso
pronosticado.
SRESID: residuos estudentizados; divididos por
su desviacin estndar y se distribuyen segn la
t de Student.
SDRESID: residuos estudentizados
1. Linealidad
Se obtiene del plot de los valores observados y
predichos versus la variable independiente. Si la
relacin no es lineal, la dispersin (scatter) de
los puntos mostrar una desviacin sistemtica
de la lnea de regresin.
Con el modelo de la regresin mltiple es mejor
generar un grfico simple (plot) de los valores
observados versus los valores predichos.
Tericamente, en un grfico de observados vs.
predichos los puntos deberan moverse entre
torno a la lnea recta diagonal.
Sigue
El grfico de valores residuales vs.
valores predichos es esencialmente el
mismo que el anterior, a excepcin de que
la lnea de referencia es horizontal ms
que de 45 grados.
2) Independencia
Uno de los supuestos bsicos del MRL
(modelos de la regresin lineal) es la
independencia entre los residuos. El
estadstico de Durbin-Watson aporta
informacin
sobre
el
grado
de
independencia existente entre ellos
El estadstico de Durbin-Watson
El estadstico de Durbin-Watson (DW)
proporciona informacin sobre el grado de
independencia entre los residuales. El
estadstico DW vara entre 0 y 4, y toma el
valor 2 cuando los residuales son
independientes. Valores menores que 2
indica autocorrelacin positiva. Podemos
asumir independencia entre los residuales
cuando DW toma valores entre 1.5 y 2.5
(et et 1 )2
d t 2
et2
t 1
Sigue..
El valor del residual se calcula por
ei = Yi - i
3) Homoscedasticidad
En el cuadro de dilogo de Grficos de la
regresin lineal del SPSS, se obtienen
una serie de variables listadas para
obtener diferentes grficos de dispersin:
Prueba de homoscedasticidad
Los valores ZRESID se trasladan al eje Y y los
valores ZPRED al eje X.
La variacin de los residuos debe ser uniforme
en todo el rango de valores pronosticados; es
decir, el tamao de los residuos es
independiente del tamao de los pronsticos.
Por lo tanto, el grfico de dispersin no debe
mostrar ninguna pauta de asociacin entre los
pronsticos y los residuos.
4) Prueba de normalidad
A) Mediante el histograma de los residuos
tipificados. La curva se construye con
media 0 y un desviacin tpica de 1.
B) Grfico de probabilidad normal. En el
eje de las abscisas se representa la
probabilidad acumulada de cada residuo y
en de las ordenadas la probabilidad
acumulada terica o esperada.
Sigue
Tericamente este grfico debera ser una lnea
recta diagonal. Si los datos se inclinan hacia
arriba o hacia abajo, indica una distribucin
asimtrica (sesgada).
Si el grfico de probabilidad normal muestra una
lnea recta, es razonable asumir que los datos
observados proceden de una distribucin
normal. Si los puntos se desvan de la lnea
recta, hay evidencia en contra de la distribucin
normal e independiente.
Correlaciones
Correlaciones
Correlaciones de orden cero: Se
presentan en la matriz de correlaciones
simples entre todas las variables,
incluyendo la variable de control. Se trata
de la correlacin ordinaria entre dos
variables, no controlando ninguna (cero)
otra variable.
Sigue
Correlacin parcial: La correlacin que hay
entre dos variables despus de remover la
correlacin debida a su asociacin con
otras variables. Es decir, la correlacin
entre la variable dependiente y una
variable independiente cuando los efectos
lineales
de
las
otras
variables
independientes del modelo han sido
removidos. Neutralizando su efecto sobre
la dependiente e independiente.
Sigue
Part Correlation (semiparcial). Es la posible
relacin entre un variable dependiente e
independiente, controlando la relacin que esta
variable independiente pueda tener con otra u
otras variables independientes. Se neutraliza los
efectos lineales de una variable independiente
del resto de variables independientes.
Est relacionada al cambio en R al cuadrado
cuando una variable es aadida a la ecuacin.
Es
conocida,
tambin,
por
correlacin
semiparcial.
Sigue
El procedimiento de Correlaciones Parciales
calcula los coeficientes de correlacin parcial
que describen la relacin lineal entre dos
variables mientras se controlan los efectos de
una o ms variables adicionales. Las
correlaciones son medidas de asociacin lineal.
Dos variables pueden estar perfectamente
correlacionadas, pero si la relacin es no linear,
un coeficiente de correlacin no es una
estadstico apropiado para medir su asociacin.