Beruflich Dokumente
Kultur Dokumente
conjunta de dos variables aleatorias. Es el dato bsico para determinar si existe una
dependencia entre ambas variables y adems es el dato necesario para estimar otros
parmetros bsicos, como el coeficiente de correlacin lineal o la recta de regresin.
Interpretacin[editar]
Cuando a grandes valores de una de las variables suelen mayoritariamente corresponderles los
grandes de la otra y lo mismo se verifica para los pequeos valores de una y la otra, se
corrobora que tienden a mostrar similar comportamiento lo que se refleja en un valor positivo
de la covarianza1
Por el contrario, cuando a los mayores valores de una variable suelen corresponder en general
los menores de la otra, expresando un opuesto comportamiento, la covarianza es negativa.
El signo de la covarianza, por lo tanto, expresa la tendencia en la relacin lineal entre las
variables.
(2) la covarianza muestral que se emplea como un valor estadsticamente estimado del
parmetro.
(x,y)=E[(xE[x])(yE[y])],
(x,y)=E[(xE[x])(yE[y])]=E[xyxE[y]E[x]y+E[x]E[y]]=E[xy]E[x]E[y]E[x]E[y]+E[x]E[y]=E[xy]E[x
]E[y].
aunque esta ltima ecuacin es proclive a perder sentido cuando se la calcula con punto
flotante aritmtico y E[xy]E[x]E[y] y lo que debe evitarse en programas de computacin
cuando el dato no ha sido previamente centrado.3
xy=E([xE(x)][yE(y)]t)
Interpretacin de la covarianza[editar]
Si sxy=0 Una covarianza 0 se interpreta como la no existencia de una relacin lineal entre las
dos variables estudiadas.
Propiedades[editar]
Cov(X,a)=0
Cov(X,X)=Var(X), la varianza de X
Cov(X,Y)=Cov(Y,X)
Cov(aX,bY)=abCov(X,Y)
Cov(X+a,Y+b)=Cov(X,Y)
Cov(aX+bY,cW+dV)=acCov(X,W)+adCov(X,V)+bcCov(Y,W)+bdCov(Y,V)
Vase tambin[editar]
ndice [ocultar]
1 Definicin
1.1 Interpretacin
2 Vase tambin
3 Enlaces externos
Definicin[editar]
En el caso de que se est estudiando dos variables aleatorias x e y sobre una poblacin; el
coeficiente de correlacin de Pearson se simboliza con la letra \rho_{x,y}, siendo la expresin
que nos permite calcularlo:
\rho_{X,Y}={\sigma_{XY} \over \sigma_X \sigma_Y} ={E[(X-\mu_X)(Y-\mu_Y)] \over
\sigma_X\sigma_Y},
Donde:
De manera anloga podemos calcular este coeficiente sobre un estadstico muestral, denotado
como r_{xy} a:
Interpretacin[editar]
Varios grupos de puntos (x, y), con el coeficiente de correlacin para cada grupo. Ntese que la
correlacin refleja la no linealidad y la direccin de la relacin lineal. En la figura del centro, la
varianza de y es nula, por lo que la correlacin es indeterminada.
Si r = 1, existe una correlacin positiva perfecta. El ndice indica una dependencia total entre
las dos variables denominada relacin directa: cuando una de ellas aumenta, la otra tambin lo
hace en proporcin constante.
Si r = 0, no existe relacin lineal. Pero esto no necesariamente implica que las variables son
independientes: pueden existir todava relaciones no lineales entre las dos variables.
Si r = -1, existe una correlacin negativa perfecta. El ndice indica una dependencia total entre
las dos variables llamada relacin inversa: cuando una de ellas aumenta, la otra disminuye en
proporcin constante.