Sie sind auf Seite 1von 16

REGRESIÓN LINEAL SIMPLE

SANTIAGO DAVID MALDONADO MONTOYA

GRAICE LIZET PETRO FERNANDEZ

LAURA ASTRID SERNA GUTIERREZ

YALIDIS VELASQUEZ MÉNDEZ


LICENCIADA, ESPECIALISTA Y MAGISTER

UNIVERSIDAD DE CORDOBA

FACULTAD DE CIENCIAS ADMINISTRATIVAS JURIDICAS Y ECONOMICAS

ADMINISTRACIO EN FINANZAS Y NEGOCIOS INTERNACIONALES

ESTADISTICA INFERENCIAL

IV SEMESTRE

SAHAGUN/CORDOBA

2019
INDICE
INTRODUCCIÓN

La estadística supone aspectos muy relevantes cuando se habla de su estudio


pero el más sobresaliente es el análisis de la relación o dependencia de una
variable. Frecuentemente resulta de interés conocer el efecto que una o varias variables
pueden causar sobre otra, e incluso predecir en mayor o menor grado valores en una
variable a partir de otra. Sabemos que son una infinidad de métodos que componen a la
estadística, analizaremos el de regresión lineal simple el cual consiste en estudiar la
relación entre variables, este se adapta a la variabilidad de las situaciones a las cuales
sea enfocado el estudio. Si bien en la investigación social, el análisis de regresión es
utilizada para predecir un alto rango de fenómenos, desde medidas económicas hasta
diversos aspectos del comportamiento humano.

En el contexto de la investigación de mercados puede ser utilizado para determinar en


cuál de los distintos medios de comunicación puede ser de mayor eficiencia la inversión o
para predecir los números de ventas de un determinado producto.

En cuanto a la física también utilizan este tipo de herramienta para la relación entre
variables o para calibrar las medidas. Si bien hablamos del caso de dos variables
(Regresión lineal simple), el análisis de regresión puede utilizarse para explorar y
cuantificar la relación para una variable llamada dependiente o criterio (Y) y una o más
variables llamadas independiente o predictorias (X1,X2,X3...........X6….), así como para
desarrollar una ecuación lineal con fines predictos. Además, el análisis de regresión lleva
asociada una serie de procedimientos de diagnósticos (análisis de los residuos, puntos de
influencia) los cuales informan sobre la estabilidad e idoneidad de los análisis y que
proporcionan una serie de pistas para así quizás perfeccionarlo. Una manera de decirlo
mas simple es que la regresión estudia la construcción de modelos para explicar o
representar la dependencia entre una variable respuesta o dependiente (Y) y la(s)
variable(s) explicativa(s) o dependiente(s), X. En este Tema abordaremos el modelo de
regresión lineal simple , que tiene lugar cuando la dependencia es de tipo lineal.

1
OBJETIVOS

OBJETIVO GENERAL
 Analizar el modelo de regresión lineal simple a través de diversas
investigaciones y describir las propiedades del modelo de regresión
lineal simple.

OBJETIVOS ESPECÍFICOS

 Conocer y describir las características del modelo de regresión lineal


simple.
 Describir los métodos de estimación y pruebas de hipótesis de la regresión
lineal simple.

 Aprender a construir un modelo de regresión lineal simple que describa la


influencia de la variable X sobre otras variables Y.

2
Taller De Regresión Lineal Simple.

1. Definición.

Regresión Lineal Simple

Es aquel modelo que nos permite describir cómo influyen una variable X sobre
otra variable Y.

 X= Variable independiente o explicativa

 Y= Variable dependiente o respuesta

 OBJETIVO: El objetivo es obtener estimaciones razonables de la variable Y


para distintos valores de X a partir de una muestra n pares de valores (X1;
Y1)……………………………(Xn;Yn).

Para ser un poco más precisos en un modelo de regresión lineal simple tratamos
de explicar la relación que existe entre la variable respuesta Y y una única variable
explicativa X.

Mediante las técnicas de regresión de una variable Y sobre una variable X,


buscamos una función que sea una buena aproximación de una nube de puntos
(xi,yi), mediante una curva.

3
2. Modelo de Regresión

En un problema de regresión, los caracteres no son considerados de la misma


forma. Uno de ellos es el carácter ''a explicar'', los otros son ''explicativos''. Vamos
primero a considerar el caso de dos caracteres, X (explicativo) e Y (a explicar).
''Explicar'' significa aquí expresar una dependencia funcional de Y como función
de X, de manera tal de prever el valor de Y conociendo el de .
Si para todo individuo

4
El modelo de regresión lineal simple tiene la siguiente expresión

𝒀 = 𝜶 + 𝜷𝑿 + 𝜺

 𝜶 =es la ordenada en el origen (el valor que toma Y cuando


X vale 0),

 = es la pendiente de la recta (e indica cómo cambia Y al


incrementar X en una unidad)

 =Variable que incluye un conjunto grande de factores,


error aleatorio no observable

Cada uno de los cuales influye en la respuesta sólo en pequeña magnitud, a la


que llamaremos error. X y Y son variables aleatorias, por lo que no se puede
establecer una relación lineal exacta entre ellas.

En esta expresión estamos admitiendo que todos los factores o causas que
influyen en la variable respuesta Y pueden dividirse en dos grupos: el primero
contiene a una variable explicativa X y el segundo incluye un conjunto amplio de
factores no controlados que englobaremos bajo el nombre de perturbación o error

aleatorio,ε, que provoca que la dependencia entre las variables dependiente e iii
independiente no sea perfecta, sino que esté sujeta a incertidumbre.

EJEMPLO

En el consumo de gasolina de un vehículo (Y ) influyen la velocidad (X) y una serie


de factores como el efecto conductor, el tipo de carretera, las condiciones
ambientales, etc, que quedarían englobados en el error.

Lo que en primer lugar sería deseable en un modelo de regresión es que estos


errores aleatorios sean en media cero para cualquier valor x de X, es decir,
E[ε/X = x] = E[ε]=0,

5
y por lo tanto:

E[Y /X = x] = β0 + β1x + E[ε/X = x] = β0 + β1x

En dicha expresión se observa que:

 La media de Y, para un valor fijo x, varía linealmente con x.

 Para un valor x se predice un valor en Y dado por

ˆ Y = E [Y /X = x] = β0 + β1x, por lo que el modelo de predicción puede


expresarse también como ˆ Y = β0 + β1X.

 El parámetro β0 es la ordenada al origen del modelo (punto de corte con el


eje Y) y β1 la pendiente, que puede interpretarse como el incremento de la
variable dependiente por cada incremento en una unidad de la variable
independiente. Estos parámetros son desconocidos y habrá que estimarlos
de cara a realizar predicciones

 Además de la hípotesis establecida sobre los errores de que en media han


de ser cero, se establecen las siguientes hipótesis:

 ii) La varianza de ε es constante para cualquier valor de x, es decir, V ar(ε/X


= x) = σ2

 iii) La distribución de ε es normal, de media 0 y desviación σ.

 iv) Los errores asociados a los valores de Y son independientes unos de


otros. En consecuencia, la distribución de Y para x fijo es normal, con
varianza constante σ2, y media que varía linealmente con x, dada por

β0 + β1x. Además los valores de Y son independientes entre sí.

6
Gráfico de regresión lineal simple

Interpretación de los coeficientes:

 El coeficiente a es la PENDIENTE de la recta, mide el cambio en Y por


cada unidad de cambio en X, en el ejemplo la pendiente es 2.

 El coeficiente b es la ORDENADA AL ORIGEN, el punto donde la recta


intercepta el eje Y, es decir el valor de Y cuando X = 0.

Consideremos el modelo
Y = aX + b

 Este modelo es una aproximación de la verdadera relación entre X e Y.


 Para un dado valor de X el modelo predice un cierto valor para Y.
 Mientras mejor sea la predicción, mejor es el modelo.

7
Un MODELO DETERMINÍSTICO supone que bajo condiciones ideales, el
comportamiento de la variable dependiente puede ser totalmente descripto por
una función matemática de las variables independientes (o por un conjunto de
ecuaciones que relacionen las variables). Es decir, en condiciones ideales el
modelo permite predecir SIN ERROR el valor de la variable dependiente.

Ejemplo: Ley de la Gravedad. Podemos predecir exactamente la posición de un


objeto que cae en caída libre y en el vacío para cada instante de tiempo.

Un MODELO ESTADÍSTICO permite la incorporación de un COMPONENTE


ALEATORIO en la relación. En consecuencia, las predicciones obtenidas a través
de modelos estadísticos tendrán asociado un error de predicción.

Ejemplo: Relación de la altura con la edad en niños. Niños de la misma edad


seguramente no tendrán la misma altura. Sin embargo, a través de un modelo
estadístico es posible concluir que la altura aumenta con la edad. Es más,
podríamos predecir la altura de un niño de cierta edad y asociarle un ERROR DE
PREDICCIÓN que tiene en cuenta: ERRORES DE MEDICIÓN y VARIABILIDAD
ENTRE INDIVIDUOS.

En problemas biológicos, trabajando en “condiciones ideales” es posible evitar los


errores de medición, pero no la variabilidad individual, por eso es indispensable
incluir el componente aleatorio en los modelos estadísticos.

En este curso trataremos sobre Regresión Lineal. Haremos énfasis en este tipo de
modelos porque

Son de amplia aplicación,

Son más simples de implementar

8
Ejemplo Regresión lineal Simple

Consideremos el siguiente experimento controlado y aleatorizado para estudiar el


efecto de una nueva droga sobre la frecuencia cardiaca de ratas sanas. Cinco
ratas fueron asignadas aleatoriamente a una de cinco dosis y se registró la
máxima disminución observada en la frecuencia cardiaca en una hora. Los datos
obtenidos son:

9
La relación respuesta-dosis es aparentemente lineal. Parece razonable proponer

𝑫𝑭𝑪 = 𝜷𝟎 + 𝜷𝟏 ∗ 𝑫𝑶𝑺𝑰𝑺 + 𝑬𝒓𝒓𝒐𝒓

𝒀𝒊 = 𝜷𝟎 + 𝜷𝟏 ∗ 𝑿𝒊 + 𝑬𝒊

Podríamos intentar ajustar una recta “a ojo”. Propuestas:

𝒀𝒊 = 𝟓. 𝟓 + 𝟑. 𝟓 ∗ 𝑿𝒊

𝒀𝒊 = 𝟎. 𝟓 + 𝟕. 𝟎 ∗ 𝑿𝒊

¿Cuál recta es “mejor”? ¿Cómo decidir? Veamos los gráficos.

10
Para decidir cuál de las dos rectas ajusta mejor estos datos consideraremos una
medida de cuán lejos está cada dato de la recta propuesta ⇒ RESIDUO.

∑ = (𝑌𝑖 − 5.5 − 3.5𝑥𝑖 )2 ∑ = (𝑌𝑖 − 0.5 − 7𝑥𝑖 )2

La mejor recta sería aquella que minimice la suma de las distancias al cuadrado
de los puntos a la recta, es decir deberíamos encontrar. ̂0 Y 𝛽
𝛽 ̂1 tales que

̂ −𝛽
∑ = (𝑌𝑖 − 𝛽 ̂ 𝑋 )2 ≤ ∑ = (𝑌 − 𝑏 − 𝑏 𝑋 )2
0 1 𝑖 𝑖 0 1 𝑖

Para cualquier elección de 𝑏0 𝑦 𝑏1 que hagamos.

11
TABLA DE ANALISIS DE LA VARIANZA (ANOVA)

Las sumas de cuadrados correspondientes a las tres fuentes de variación que


hemos descripto arriba se presentan habitualmente en una Tabla, denominada
Tabla de ANOVA.

La columna d.f. indica los grados de libertad de cada SS.


 El modelo tiene d.f. = # de parámetros en el modelo – 1= # de covariables
en el modelo.

 La suma de cuadrados residual tiene n – 2 grados de libertad (estamos


estimando dos parámetros en el modelo)

 La suma de cuadrados total tiene n – 1 grados de libertad (hay un vínculo


que liga las desviaciones respecto de la media).

 La columna MS (Mean Square) se obtiene como el cociente entre la SS y


sus correspondientes grados de libertad.

Coeficiente de correlación
Coeficiente de determinación

CONCLUCION

12
13
BIBLIOGRAFIA

http://www4.ujaen.es/~dmontoro/Metodos/Tema%209.pdf
http://halweb.uc3m.es/esp/Personal/personas/aarribas/esp/docs/estII/tema4esp(2).pdf
https://ljk.imag.fr/membres/Bernard.Ycart/emel/cours/sd/node14.html
http://www.dm.uba.ar/materias/estadistica_Q/2011/1/clase%20regresion%20simple.pdf
https://www.google.com/search?q=.+Tabla+de+An%C3%A1lisis+de+varianza+para+la+regresi
%C3%B3n+lineal+simple&rlz=1C1SQJL_esCO836CO836&source=lnms&tbm=isch&sa=X&ved=0
ahUKEwjyzrnl2szjAhUFx1kKHffACMAQ_AUIESgB&biw=1242&bih=597#imgrc=BNTOTFvLxfxVr
M:

14

Das könnte Ihnen auch gefallen