Sie sind auf Seite 1von 6

Anlisis de correlacin

Introduccin
Hasta este momento se ha supuesto que la variable de regresin independiente
x es una variable fsica o cientfica, pero no una variable aleatoria matemtica.
De hecho en este contexto, X frecuente
recibe el nombre de variable
matemtica, la cual, en el proceso de muestreo se mide con un error
despreciable. En muchas aplicaciones de las tcnicas de regresin es ms
realista suponer que tanto x como y son variables aleatorias y que las
mediciones [(Xi,Yi);i=1,2.n.
Son las observaciones de una poblacin que tiene la funcin de densidad
conjunta

f ( x , y ) . Se considera el problema de medir la relacin entre 2

variables X y Y . Por ejemplo, si X y Y representan la


longitud y la
circunferencia de una clase particular de hueso en el cuerpo de un adulto, se
podr llevar a cabo un estudio antropolgico para determinar si valores
grandes de x se asocian con valores grandes de Y y viceversa. Por otro lado si X
representa la antigedad de un automvil usado y Y su valor en libros, se
esperara que los valores pequeos de X correspondern a valores pequeos
de Y y que valores pequeos de X corresponden a valores grandes Y.
EL anlisis de correlacin intenta medir la fuerza de tales relaciones entre 2
variables por medio de un simple nmero que recibe el nombre de coeficiente
de correlacin donde este se define como
La medida p de asociacin lineal entre 2 variables X y Y se estima con el
coeficiente muestral r donde:
Calculo del coeficiente de determinacion

Sxx
Sxy
r=b=
=
Syy SxxSyy
En teora se supone con frecuencia que la distribucin condicional

( yx)

de y, para valores fijos de x, es normal con media y|x]=+xy varianza


2

yx

y que, de la misma manera x tiene una distribuacion normal con

media xy varianza

2 x

Para

-x y -y

La variable aleatoria y en forma

= + x+
Donde x es ahora una variable aleatoria independiente del error aleatorio E.
dado que la media del error aleatorio e es 0, se sigue que,

= + x +

P. de H e interpretacin
Para

-x y -y

2
2 2x
2 =

2
2
=1a
El valor de

es 0 cuando

=0 , lo cual resulta cuando esencialmente no

hay regresin lineal ; esto es, la lnea de regresin es horizontal y cualquier


conocimiento de x no es utilidad para predecir y. se debe tener
aqu que -1

1 . Entonces los valores

2 1

y de

igual que +1 implica una relacin

perfecta con una pendiente positiva, mientras que un valor de

igual que -1

resulta una relacin lineal perfecta con una pendiente negativa

MEDIDAS DE VARIACION EN REGRESION Y CORRELACION


Con el fin de examinar que tan bien una variable independiente predice a la variable
dependiente en nuestro modelo estadstico, necesitamos desarrollar algunas medidas de
variacin. La primera de ellas, la suma total de cuadrados, es una medida de la variacin
de los valores Y, alrededor de su media, Y. en el anlisis de regresin la suma total de
cuadrados puede dividirse en la variacin explicada o suma de cuadrados debida a la
regresin, que se puede atribuir a la relacin entre X y Y; y la variacin no explicada o
suma de cuadrados de error, que se puede atribuir a factores diferentes a la relacin entre
X y Y.

SCT(SST), SCR (SSR) Y SCE (SSE)


La suma de cuadrados debida a la regresin representa la diferencia entre

valor promedio de Y y
el valor promedio de Y que seria predicho a partir de la
relacin de regresin. La suma de cuadrados de error representa aquella parte de
la variacin de Y que no es explicada por la regresin.

En la que:

CALCULO DEL COEFICIENTE E INTERPRETACION


El coeficiente de determinacin r2 , puede definirse como:

Esto es, el coeficiente de determinacin mide la porcin de variacin que es


explicida por la variable independiente del modelo de regresin.
Para interpretar el coeficiente de determinacin, en particular se trata con modelos
de regresin multiple, algunos investigadores sugieren que se calcule un coeficiente
r2 ajustado para reflejar tanto el numero de variables explicatorias del modelo como
el tamao de la muestra. En la regresin lineal simple, sin embargo, representamos
el coeficiente r2 ajustado como: