Sie sind auf Seite 1von 6

Correlacin

El anlisis de correlacin se encuentra estrechamente vinculado con el anlisis de regresin y ambos


pueden ser considerados de hecho como dos aspectos de un mismo problema.
La correlacin entre dos variables es - otra vez puesto en los trminos ms simples - el grado de
asociacin entre las mismas. Este es expresado por un nico valor llamado coeficiente de correlacin
(r), el cual puede tener valores que ocilan entre -1 y +1. Cuando r es negativo, ello significa que una
variable (ya sea x o y) tiende a decrecer cuando la otra aumenta (se trata entonces de una
correlacin negativa, correspondiente a un valor negativo de b en el anlisis de regresin). Cuando
r es positivo, en cambio, esto significa que una variable se incrementa al hacerse mayor la otra (lo
cual corresponde a un valor positivo de b en el anlisis de regresin).
Los valores de r pueden calcularse fcilmente en base a una serie de pares de datos de x e y,
utilizando la misma table y montos que se indican en el Paso 2 de la seccin regresin de este
captulo. De este modo r puede ser obtenido - indirectamente - a partir de la relacin:

Regresin
Es un proceso estadstico para estimar las relaciones entre variables. Incluye muchas tcnicas para el
modelado y anlisis de diversas variables, cuando la atencin se centra en la relacin entre una
variable dependiente y una o ms variables independientes (o predictoras). Ms especficamente, el
anlisis de regresin ayuda a entender cmo el valor de la variable dependiente vara al cambiar el
valor de una de las variables independientes, manteniendo el valor de las otras variables
independientes fijas. Ms comnmente, el anlisis de regresin estima la esperanza condicional de la
variable dependiente dadas las variables independientes - es decir, el valor promedio de la variable
dependiente cuando se fijan las variables independientes. Con menor frecuencia, la atencin se
centra en un cuantil, u otro parmetro de localizacin de la distribucin condicional de la variable
dependiente dadas las variables independientes. En todos los casos, el objetivo es la estimacin de
una funcin de las variables independientes llamada la funcin de regresin. En el anlisis de

regresin, tambin es de inters para caracterizar la variacin de la variable dependiente en torno a la


funcin de regresin que puede ser descrito por una distribucin de probabilidad.
Correlacin lineal
Es una medida de regresin que pretende cuantificar el grado de variacin conjunta entre dos
variables.
Por tanto, es una medida estadstica que cuantifica la dependencia lineal entre dos variables, es
decir, si se representan en un diagrama de dispersin los valores que toman dos variables, el
coeficiente de correlacin lineal sealar lo bien o lo mal que el conjunto de puntos representados se
aproxima a una recta.
De una forma menos coloquial, la podemos definir como el nmero que mide el grado de intensidad y
el sentido de la relacin entre dos variables.

Siendo:
Cov (x;y): la covarianza entre el valor x e y.
(x): desviacin tpica de x.
(y): desviacin tpica de y.
Valores que puede tomar la correlacin
= -1

Correlacin perfecta negativa

=0

No existe correlacin

= +1

Correlacin perfecta positiva

Recta de Regresin por mnimos cuadrados


Cuando la nube de puntos adopta una forma definida, se pueden aproximar sus puntos mediante una
lnea curva en general, que llamamos curva de regresin.
Slo nos ocuparemos del caso en el que la curva de regresin es una recta, llamada recta de
regresin. Nos centraremos entonces en calcular la ecuacin de una recta que "mejor se adapte" a
una nube de puntos dada. En los ejemplos anteriores lo hemos hecho a ojo, ahora lo haremos con un
criterio ms preciso.

Para ello existen varios mtodos, siendo el ms utilizado el de los mnimos cuadrados. Consiste en
hacer mnima la suma de los cuadrados de las diferencias entre los valores experimentales y los
obtenidos mediante la recta. Por lo tanto, si consideramos la Y=aX+b, mediramos lo bien (o mal) que
se ajusta a nuestros puntos por medio de la cantidad
i=1 N ( y i ( a x i +b ) ) 2 = i=1 N ( y i a x i b ) 2
y la recta que estamos buscando es la que haga esta cantidad lo ms pequea posible.
Una vez realizados los clculos correspondientes, se tiene que la ecuacin de la recta de regresin
es:
y y = xy x 2 (x x )
donde x y son las desviaciones tpicas de x e y.

Se comprueba que, como indicamos anteriormente, la recta obtenida pasa por el punto (x, y) que
coincide con el centro de gravedad de la nube de puntos.
Ejemplo: Para el ejemplo de
Pesos (kgs.) - Estaturas (cms.)
Peso en
60 65 70 70 68 50 60
Kgs.
Altura en 16 17 17 18 17 15 16
cms.
7 0 0 0 0 5 0
Frecuenc
1 5 2 4 2 1 1
ias (ni)
y - y = 1.11(x-x )
atan (1.11) = 47,89

La recta de regresin de mnimos cuadrados


Consiste en explicar una de las variables en funcin de la otra a travs de un determinado tipo de
funcin (lineal, parablica, exponencial, etc.), de forma que la funcin de regresin se obtiene
ajustando las observaciones a la funcin elegida, mediante el mtodo de Mnimos-Cuadrados
(M.C.O.).
Elegido el tipo de funcin ( ) la funcin de regresin concreta se obtendr minimizando la expresin:

(yj - (xi ) ) 2. nij en el caso de la regresin de Y/X

(xi - (yj ) ) 2. nij en el caso de la regresin de X/Y


Puede probarse que es equivalente ajustar por mnimos cuadrados la totalidad de las observaciones
(toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por la regresin de la media;
de forma que la regresin mnimo-cuadrtica viene ser, en cierto modo, la consecucin de una
expresin analtica operativa para la regresin en sentido estricto.
El coeficiente de correlacin de Pearson
Es una medida de la relacin lineal entre dos variables aleatorias cuantitativas. A diferencia de la
covarianza, la correlacin de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlacin de Pearson como un ndice
que puede utilizarse para medir el grado de relacin de dos variables siempre y cuando ambas sean
cuantitativas.

Interpretacin
El valor del ndice de correlacin vara en el intervalo [-1,1]:

Si r = 1, existe una correlacin positiva perfecta. El ndice indica una dependencia total entre
las dos variables denominada relacin directa: cuando una de ellas aumenta, la otra tambin
lo hace en proporcin constante.

Si 0 < r < 1, existe una correlacin positiva.

Si r = 0, no existe relacin lineal. Pero esto no necesariamente implica que las variables son
independientes: pueden existir todava relaciones no lineales entre las dos variables.

Si -1 < r < 0, existe una correlacin negativa.

Si r = -1, existe una correlacin negativa perfecta. El ndice indica una dependencia total entre
las dos variables llamada relacin inversa: cuando una de ellas aumenta, la otra disminuye en
proporcin constante.

Das könnte Ihnen auch gefallen