Beruflich Dokumente
Kultur Dokumente
lo que es posible que una de las variables puedan relacionarse matemticamente en funcin de otra u otras variables. Las tcnicas de regresin permiten hacer predicciones sobre los valores de cierta variable Y (dependiente), a partir de los de otra X independiente), entre las que intuimos que existe una relacin. Clases de Regresin La regresin puede ser Lineal o no lineal, ambos tipos de regresin pueden ser a su vez: a) Regresin Simple: Este tipo se presenta cuando una variable independiente ejerce influencia sobre otra variable dependiente. Cualquier funcin no lineal, es transformada en lineal para su estudio. Objetivo: Se utiliza la regresin lineal simple para: 1.- Determinar la relacin de dependencia que tiene una variable respecto a otra. 2.- Ajustar la distribucin de frecuencias de una lnea, es decir, determinar la forma de la lnea de regresin. 3.- Predecir un dato desconocido de una variable partiendo de los datos conocidos de otra variable. Ejemplo Cifras hipotticas de gasto de consumo familiar semanal Y e ingreso familiar por semana X. Regresin poblacional Coeficiente de Regresin Indica el nmero de unidades en que se modifica la variable dependiente Y por efecto del cambio de la variable independiente X o viceversa en una unidad de medida. Clases de coeficiente de Regresin : Regresin muestral
El coeficiente de regresin puede ser: Positivo, Negativo y Nulo. Es positivo cuando las variaciones de la variable independiente X son directamente proporcionales a las variaciones de la variable dependiente Y
Es negativo, cuando las variaciones de la variable independiente X son inversamente proporcionales a las variaciones de las variables dependientes Y Es nulo o cero, cuando entre las variables dependientes Y e independientes X no existen relacin alguna.
MTODO DE LOS MNIMOS CUADRADO PARA ESTIMAR LOS COEFICIENTES Bo Y B1. error
( )
( )
INTERVALO DE CONFIANZA DE B1
Nota:
PRUEBA DE HIPTESIS DE B1
Los estimadores y mostrados anteriormente satisfacen las ecuaciones normales y son llamados estimadores de mnimos cuadrados, pues minimizan S. Estos mismos estimadores tambin se obtienen por el mtodo de mxima verosimilitud. En notacin matricial se puede expresar lo anterior como,
[ ] [ ]
[ ]
[ ] [
| |
| |
[ ] [
Donde
es una estimacin de
es una estimacin de
Se eleva al cuadrado en ambos lados de la ecuacin, y se suma para las n observaciones. La ecuacin, se puede escribir como: Donde Sustituyendo
De ah
Como
El coeficiente de determinacin mide el porcentaje de variabilidad total, de la variable dependiente Y respecto a su media, que puede ser explicado por el modelo de regresin propuesto. Por otra parte, dadas dos variables x e Y, una medida de la relacin lineal que hay entre ambas variables es el coeficiente de correlacin definido por:
donde representa la desviacin estndar de la variable x y es la desviacin estndar de la variable Y. Un buen estimador de este parmetro es el coeficiente de correlacin lineal muestral o coeficiente de correlacin de Pearson, definido por:
Este coeficiente es una medida de la bondad del ajuste de la recta de regresin, y su valor est en el intervalo [-1,1]. Es recomendable, efectuar una prueba de hiptesis para el coeficiente de correlacin, y para ello las hiptesis a plantear son:
Para hacer inferencias acerca de utilizando r, se requiere conocer la distribucin muestral de r, que es bastante compleja, por lo que se tomar el resultado de la teora estadstica de que, cuando =0 y (X,Y) es normal bivariada, el estadstico
sigue una distribucin t de Student con n-2 grados de libertad y puede ser utilizado para probar : = 0. La hiptesis nula ser rechazada, al nivel de significancia , cuando | |
REGRESIN EXPONENCIAL Se presenta en muchos problemas de medicina, qumica, fsica, demografa, biologa, economa, etc Interpretacin aplicando logaritmos Ser aquella en la que la funcin de ajuste ser una funcin exponencial del tipo y = a.bx La regresin exponencial aunque no es lineal es linealizable tomando logaritmos ya que haciendo el cambio de variable v = log y tendremos que la funcin anterior nos generara: v = log y = log( a.bx) = log a + x log b la solucin de nuestro problema vendra de resolver la regresin lineal entre v x, y una vez obtenida supuesta sta: v* = A + B x ; obviamente la solucin final ser: a = antilog A y b = antilog B. Su modelo matemtico: Donde:
ln
. ln ln ln . (2) . ln (1) ln ln ln ln
A los siguientes pares de datos: X Y 1.5 2.6 2 2.4 3 1.2 3.5 1.8 4 1.6 5 1.4
La transformacin a la regresin lineal es: X 1.5 2 3 3.5 4 5 Y 2.6 2.4 1.2 1.8 1.6 1.4 X' = log X 0.1760912 6 0.30103 0.4771212 5 0.5440680 4 0.6020599 9 0.69897 2.7993405 5 Y' = log Y 0.4149733 5 0.3802112 4 0.0791812 5 0.2552725 1 0.2041199 8 0.1461280 4 1.4798863 6 X'Y' 0.0730731 8 0.1144549 9 0.0377790 6 0.1388856 1 0.1228924 7 0.1021391 1 0.5892244 2 X'X' 0.0310081 3 0.0906190 6 0.2276446 9 0.2960100 4 0.3624762 3 0.4885590 7 1.4963172 2 Y'Y' 0.1722028 8 0.1445605 9 0.0062696 7 0.0651640 5 0.0416649 7 0.0213534 0.4512155 6
n n .
[ ] . .
. .
Luego la recta de regresin estimada es: Y= 0.4949 0.532X Por otra parte A= antilog(a)=antilog(0.4949) = 3.125 .
.