Sie sind auf Seite 1von 9

AO DE LA INVERSIN PARA EL DESARROLLO RURAL Y LA SEGURIDAD ALIMENTARIA Facultad: Ingeniera Civil

Escuela Profesional: Ingeniera Civil

Docente: Mara Medina.

Curso: Estadstica General.

Tema: Regresin y Correlacin Lineal Simple.

Estudiantes: Cantu Villanueva, Rosa Fiorella. Rodrguez Ortiz Miguel ngel.

Fecha: 05/11/13

Huaraz- Ancash

INTRODUCCIN.

Al trabajar con dos variables cuantitativas podemos estudiar la relacin que existe entre ellas mediante la correlacin y la regresin. Aunque los clculos de ambas tcnicas pueden ser similares en algunos aspectos e incluso dar resultados parecidos, no deben confundirse. En la correlacin tan solo medimos la direccin y la fuerza de la asociacin de una variable frente a la otra, pero nunca una relacin de causalidad. Solo cuando tenemos una variable que es causa o depende de otra, podremos realizar entonces una regresin. En este captulo estudiaremos dos de los coeficientes de correlacin ms utilizados, como el coeficiente de Pearson y el coeficiente no paramtrico de Spearman. Tambin veremos un ejemplo de regresin lineal simple y cmo se deben interpretar sus resultados.

OBJETIVOS

1. Saber construir un modelo de regresin lineal simple que describa como inuye una variable X sobre otra variable Y 2. Saber obtener estimaciones puntuales de los parmetros de dicho modelo 3. Saber construir intervalos de conanza y resolver contrastes sobre dichos parmetros 4. Saber estimar el valor promedio de Y para un valor de X 5. Saber predecir futuros de la variable respuesta, Y

DESARROLLO TEMTICO. Regresin es una palabra un tanto rara. La utilizan los bilogos, los mdicos, los psiclogos y suena como "ir hacia atrs", "volver al pasado", y realmente este es verdadero significado del vocablo. Fue un bilogo y estadstico ingls, SIR FRANCIS GALTON, quien introdujo en 1889 el trmino regresin en Estadstica. Emple este concepto para indicar la relacin que exista entre la estatura de los nios de una muestra y la estatura de su padre. Observ, que si los padres son altos, los hijos generalmente tambin lo son, y si los padres son bajos los hijos son tambin de menor estatura. Pero ocurra un hecho curioso: cuando el padre es muy alto o muy bajo, aparece una perceptible "regresin" hacia la estatura media de la poblacin, de modo que sus hijos retroceden hacia la media de la que sus padres, por cierto, estn muy alejados. Hoy da, el trmino no se utiliza en ese sentido. En muchas ocasiones, se desea conocer algo acerca de la relacin o dependencia entre dos caractersticas cuantitativas, o ms de una,

consideradas sobre la misma poblacin objeto de estudio (por ejemplo la talla y el peso). Hay muchos casos en los que ya de antemano se "sospecha" que puede existir algn tipo de relacin, y por consiguiente, se pretende saber por ejemplo, en el caso de que tengamos nicamente dos variables: 1.- Si ambas variables estn realmente relacionadas entre s o si, por el contrario, pueden considerarse independientes. 2.- Si existe dependencia, es necesario conocer el "grado de relacin", as como el "tipo" de relacin entre ambas. 3.- Si puede predecirse la variable que es considerada como dependiente a partir de los valores de la otra, que es considerada independiente, y si es as, con qu precisin.

Coeficiente de correlacin de Pearson (r) Si tenemos dos variables cuantitativas y deseamos medir el grado de asociacin podemos utilizar el coeficiente de correlacin de Pearson. En primer lugar, es muy aconsejable realizar un grfico de dispersin entre ambas variables y estudiar visualmente la relacin entre ellas. Este coeficiente mide asociacin lineal y al ser una prueba paramtrica requiere para su uso que ambas variables tengan distribuciones normales1. De no ser as, deberemos utilizar el coeficiente no paramtrico de Spearman. El coeficiente de correlacin de Pearson (r) puede tomar valores entre -1 y +1, de modo que un valor de "r" positivo nos indica que al aumentar el valor de una variable tambin aumenta el valor de la otra (Figura A), y por el contrario, "r" ser negativo si al aumentar el valor de una variable disminuye la otra (Figura B). La correlacin ser perfecta si r= 1, en este caso los puntos formarn todos una recta. Es importante a priori determinar qu valor de "r" vamos a considerar como clnicamente relevante, puesto que una correlacin tan baja como r= 0,07 sera significativa (p=0,027) con un tamao muestral de unas 1000 personas. Al igual que cualquier otro parmetro, conviene darlo con sus correspondientes intervalos de confianza. Un coeficiente de correlacin significativo, lo nico que nos indica es que es bastante improbable que en nuestra poblacin "r" sea cero, y por tanto su intervalo de confianza no incluir el cero.

Figura 1. El coeficiente de correlacin de Pearson.

Coeficiente de correlacin no paramtrico de Spearman (rho) Al igual que el coeficiente de Pearson, tambin podemos utilizarlo para medir el grado de asociacin entre dos variables cuantitativas, sin embargo no es necesario que ambas variables sean normales, e incluso lo podemos utilizar en variables ordinales. Como todas las pruebas no paramtricas, este coeficiente se construye sustituyendo los valores de las variables por sus rangos o posiciones, si los valores de las variables fuesen ordenados de menor a mayor. Al contrario de otras pruebas no paramtricas, si permite construir intervalos de confianza1. La interpretacin de este coeficiente es muy similar al de Pearson, pudiendo alcanzar valores de entre -1 y +1 indicando asociacin negativa o positiva respectivamente. Tanto el coeficiente "r" de Pearson como el coeficiente rho de Spearman, son medidas adimensionales por lo que no poseen unidades. Usos incorrectos de los coeficientes de correlacin

Ambos coeficientes, tanto el de Pearson, como el de Spearman, requieren que las observaciones sean independientes, por lo que no debemos aplicar una correlacin entre dos variables en los que tuviramos medidos pacientes de forma repetida. El encontrar una asociacin significativa no indica que una variable sea la causa y que la otra el efecto. La correlacin nunca mide una relacin causaefecto. Adems, no distingue entre variable dependiente e independiente y por tanto la correlacin de la variable "x" frente a la variable "y" es la misma que la de la variable "y" frente a "x" 1. Esto no sucede as en la regresin. Siempre hay que tener mucho cuidado con la interpretacin de un coeficiente de correlacin puesto que otras variables, llamadas de confusin, pueden ser las causantes reales de la asociacin. Esto sucede cuando dos variables independientes entre s dependen ambas de una tercera. Por ejemplo est demostrado que en los nios, existe una correlacin positiva entre el tamao del pie y su capacidad para sumar. Sin embargo lo que en realidad sucede es que los nios con mayor pie, son tambin los de mayor edad y por tanto los que mejor suman. Este tipo de correlaciones se denominan engaosas y nos pueden llevar a conclusiones errneas. Tambin hay que advertir a aquellos investigadores que tengan la tentacin de correlacionar un nmero grande de variables cuantitativas con el nico objetivo de "a ver si encuentro algo". Aparte de tener una difcil justificacin este modo de actuar, si cruzramos solo 20 variables todas ellas independientes, tendramos hasta 190 pares de variables en los que estudiar la correlacin, y slo por azar, es de esperar aproximadamente unas 9 10 como significativas. Es decir, el 5% de las correlaciones realizadas serian significativas con una p<0,05, cometiendo un error tipo I al afirmar que hay asociacin cuando en realidad no la hay. Para evitarlo, podramos utilizar para cada p la correccin de Bonferroni. Tampoco debemos utilizar la correlacin para evaluar la concordancia entre dos medidas cuantitativas, siendo aconsejables otros ndices como el coeficiente de correlacin intraclase y otra serie de tcnicas.

Regresin lineal simple Si deseamos estudiar la relacin entre dos variables cuantitativas y adems una de ellas puede considerarse como variable dependiente o "respuesta" podemos considerar el uso de la regresin lineal simple. Con la regresin, aparte de medir el grado de asociacin entre las dos variables, podremos realizar predicciones de la variable dependiente. Veamos un ejemplo de regresin lineal simple y cmo se interpretaran sus resultados. Dependiendo del programa estadstico utilizado, pueden variar la cantidad de informacin y el formato de las salidas, aunque los resultados van a ser los mismos as como su interpretacin. Supongamos que deseemos estudiar la asociacin entre el volumen mximo expirado en el primer segundo de una expiracin forzada (FEV1) y la talla medida en centmetros de un grupo de 170 adolescentes de edades comprendidas entre los 14 y los 18 aos (Tabla I). Tabla I. Ejemplo en 170 adolescentes. N 1 2 3 4 5 6 168 169 170 FEV1 (litros) Altura (cm.) 3,46 4,55 4,53 4,59 3,67 4,71 4,38 5,06 3,06 171 172 182 179 173 180 177 184 152

Das könnte Ihnen auch gefallen