Sie sind auf Seite 1von 5

Estudiante: Morejón Haro Ronnie Steven

Semestre: Tercero

Paralelo: 1

Regresión Lineal

El análisis de la regresión lineal es una técnica estadística utilizada para estudiar la


relación entre variables. Se utiliza para predecir un amplio rango de fenómenos, desde medidas
económicas, hasta el comportamiento de las propiedades físicas y mecánicas de los materiales.
Según Pardo (2018) la regresión lineal permite determinar el grado de dependencia de las series
de valores X e Y, prediciendo el valor estimado que se obtendría para un valor x que no esté en
la distribución. Esto se da cuando los datos son dispersos, pero que su predicción sea lineal, ya
que puede ser una curva y perdería la forma y = mx + b. Se usa la regresión lineal en el estudio
de fenómenos ya que los instrumentos y herramientas con los que se los ensaya no son exactos
y esto genera una dispersión. Esto sucede únicamente cuando el plano de estudio es
bidimensional, pues puede ser una función lineal y ser tridimensional, es decir que tendríamos
una función de tres variables distintas. (Vila, 2016).

Se distingue la regresión lineal debido a que al ser representado en un plano X e Y los


puntos dispersos tienen una tendencia lineal, es decir los puntos dispersos forman una nube de
puntos en forma de recta. Es lo que (Vila, 2016) menciona al representar en un gráfico los pares
de valores de una distribución bidimensional: la variable "x" en el eje horizontal o eje de
abscisa, y la variable "y" en el eje vertical, o eje de ordenada, es donde se observa la tendencia
lineal, pero con un una distancia equitativa de los puntos respecto a la recta, es a lo que le
denomina R2 . Es decir que los puntos deben ser equidistantes a la recta, que es lo que se encarga
de calcular dicho valor. Entonces se supondrá que la recta de ecuación y = mx + b pasará en
medio de la nube de puntos. Dicha función lineal puede como no pasar por el origen del plano
de coordenadas en el cual es representado. (Aksu & Gunter, 1994).

Uno de los aspectos más relevantes de la Estadística es el análisis de la relación o


dependencia entre variables. Frecuentemente resulta del interés de conocer el efecto que una o
varias variables pueden causar sobre otra, e incluso predecir en mayor o menor grado valores
en una variable a partir de otra. Esto es muy útil en la ingeniería civil, en especial al momento
de ensayar los materiales para determinar sus propiedades físicas y mecánicas al ser expuestos
a fuerzas externas, pues al momento de tomar datos, por varios factores como la falta de
calibración de los equipos, el error de lectura, la mala colocación de los materiales al momento

1
de ensayarlos; son los que generan una nube de puntos dispersos, pues si no existiera error
significaría que no existen factores externos que alteren el ensayo, y en la realidad existen
muchos factores. (Rodríguez, 2013).

Regresión Lineal Simple

La más conveniente en el estudio de fenómenos es la regresión lineal simple, pues es


aquella que contiene una única variable dependiente y otra independiente, lo que facilita el
estudio en un plano bidimensional. La regresión lineal simple se basa en estudiar los cambios
en una variable, no aleatoria, afectan a una variable aleatoria, en el caso de existir una relación
funcional entre ambas variables que puede ser establecida por una expresión lineal, es decir, su
representación gráfica es una línea recta. Es decir, se está en presencia de una regresión lineal
simple cuando una variable independiente ejerce influencia sobre otra variable dependiente. Por
lo tanto, la función de una regresión lineal simple sería y = mx + b. (Jiménez, 2000).

Se puede dar casos muy distintos, el primero el modelo determinístico cuando no existe
error de predicción y el segundo el modelo estadístico cuando se añade componentes aleatorios
los cuales generan error en la predicción. Un modelo determinístico supone que, bajo
condiciones ideales, el comportamiento de la variable dependiente puede ser totalmente
descripto por una función matemática de las variables independientes. Es decir, en condiciones
ideales el modelo permite predecir sin error el valor de la variable dependiente. Por otro lado,
un modelo estadístico permite la incorporación de un componente aleatorio en la relación. En
consecuencia, las predicciones obtenidas a través de modelos estadísticos tendrán asociado un
error de predicción. (Fernández, 2004).

La regresión lineal simple se aplica en aquellas investigaciones en las que deseamos


conocer la posible relación (lineal) entre dos variables. Normalmente, ambas variables son
cuantitativas, aunque se verá que este requisito puede ser salvado en lo que respecta a la variable
independiente, que puede ser una variable cualitativa, con lo que el modelo de regresión puede
extenderse a los contrastes de medias y análisis de la varianza, sin pérdida de generalidad. Los
gráficos proporcionan la forma más sencilla e intuitiva de estudiar la relación entre dos
variables. Ofrece una cierta idea de la naturaleza de la relación; si es lineal o no, su intensidad,
así como el sentido (negativa o positiva). (Del Valle Moreno & Guerra Bustillo, 2012).

Como se sabe, el modelo de regresión lineal ha de cumplir una serie de supuestos que
garanticen su correcta aplicación, a saber, a) linealidad, b) normalidad, c) homocedasticidad y
d) independencia de errores. Una última condición de ausencia de multicolinealidad hace

2
referencia a la regresión múltiple y será vista más adelante. Los procedimientos gráficos son
convenientes para una primera aproximación, pero si se requiere ser riguroso se debe recurrir a
aspectos más formales. Las fórmulas son aquellas que permiten tener una aproximación más
exacta al valor real. (Fernández, 2004).

Con las coordenadas (X, Y) del plano bidimensional correspondiente a las abscisas y a
las ordenadas respectivamente, y sabiendo que la recta que contiene la regresión lineal contiene
la forma y = mx + b, se determinó que la pendiente “m” se puede calcular a través de la
n ∑ xy−(∑ x)(∑ y) ∑ y−m(∑ x)
fórmula m = y el punto de corte “b” es b = , donde “n” es el número
n ∑ x2 −(∑ x)2 n

de datos obtenidos en el ensayo o evaluación del fenómeno y las coordenadas de (X, Y) son los
valores de las variables. La distancia entre los puntos y la recta “R2 ” se calculo a través de la
n ∑ xy−(∑ x)(∑ y)
fórmula: . Esta distancia ayudará a determinar la dispersión de datos de
√n ∑ x2 −(∑ x)2 ∗√n ∑ y2 −(y)2

la nube de puntos. (Fernández, 2004).

La correlación lineal simple surge cuando dos variables están correlacionadas puede
predecirse el valor de una a partir de la otra. Además, que existe una relación inversamente
proporcional entre la intensidad de la correlación y el error estándar de estimación. La regresión
es un método para determinar la relación existente entre una variable independiente y otra
dependiente, con fines de predicción de esta última variable ante los cambios de la primera. En
este caso siempre la variable Y dependerá del valor que se le de a X. (Del Valle Moreno &
Guerra Bustillo, 2012).

La variable independiente o predictora suele representarse por X y la variable


dependiente por Y. En algunos casos, la variable independiente se asocia con medidas de
“causa” y la dependiente con medidas de “efecto”. En la producción industrial pueden ser
variables independientes: el número de trabajadores, el tiempo de labor semanal, la cantidad de
materia prima, entre otras. Y variables dependientes: el número de artículos producidos, los
ingresos semanales, el posicionamiento en el mercado, etc. Obsérvese que las variables
dependientes se muestran como “efecto” de las variables independientes o “causa” del proceso
de producción. (Vila, 2016)

Regresión Lineal Compuesta

La regresión lineal permite trabajar con una variable a nivel de intervalo o razón, así
también se puede comprender la relación de dos o más variables y permitirá relacionar mediante
ecuaciones, una variable en relación con otras variables llamándose Regresión múltiple. O sea,

3
la regresión lineal múltiple es cuando dos o más variables independientes influyen sobre una
variable dependiente. La regresión lineal es una técnica estadística destinada a analizar las
causas de por qué pasan las cosas. A partir de los análisis de regresión lineal múltiple podemos
identificar que variables independientes (causas) explican una variable dependiente (resultado),
comparar y comprobar modelos causales. La regresión lineal múltiple es la gran técnica
estadística para comprobar hipótesis y relaciones causales. (Fernández, 2004)

La variable dependiente (resultado) debe ser ordinal o escalar, es decir, que las
categorías de la variable tengan orden interno o jerarquía, p.ej. nivel de ingresos, peso, número
de hijos, justificación del aborto en una escala de 1 (nunca) a 10 (siempre). Las variables
independientes (causas) deben ser ordinales o escalares o dummy Hay otras condiciones como:
las variables independientes no pueden estar altamente correlacionadas entre sí, las relaciones
entre las causas y el resultado deben ser lineales, todas variables deben seguir la distribución
normal y deben tener varianzas iguales. Estas condiciones no son tan estrictas y hay maneras
de tratar los datos si se incumple. Sobre ello volveremos en futuras entradas. (Peña Sánchez de
Rivera, 1992).

Un ejemplo básico de este tipo de funciones es Y = f(x, w, z), donde Y es las función
y x, w, z son las variables independientes de la misma. La regresión lineal múltiple trata de
ajustar modelos lineales o linealizables entre una variable dependiente y más de una variable
independiente. En este tipo de modelos es importante testar la heterocedasticidad, la
multicolinealidad y la especificación. La correlación es una medida de la similitud de la
variabilidad de dos magnitudes estocásticas (que, como varían, las denominamos variables). La
ventaja de 4 la correlación como medida de asociación es la sencillez de cálculo y su
inconveniente es que, a veces, no es suficiente para comprender la relación entre ambas.
(Fernández, 2004)

Existen muchas técnicas de regresión en función del tipo de variables y de la forma


funcional supuesta entre ellas. Las más elementales (aunque las más potentes en el sentido de
que se puede obtener más información) son las lineales. La regresión lineal supone que la
relación entre dos variables tiene una forma lineal (o linealizable mediante alguna
transformación de las variables). La regresión lineal tiene una versión “simple” que empareja
dos variables, pero esta suele ser insuficiente para entender fenómenos mínimamente complejos
en la que influyen más de dos variables, esta versión es la “múltiple”. En el modelo de regresión
lineal múltiple suponemos que más de una variable tiene influencia o está correlacionada con
el valor de una tercera variable. (Peña Sánchez de Rivera, 1992)

4
Referencias Bibliográficas:

Aksu, C., & Gunter, L. (1994). Efficiency of combinations of forecast using inequality

restricted least squares. Spring.

Del Valle Moreno, J., & Guerra Bustillo, W. (2012). La Multicolinealidad en modelos de

Regresión Lineal Múltiple. Revista Ciencias Técnicas Agropecuarias, 21(4), 80–83.

Fernández, L. (2004). Modelos Estadísticos-Matemáticos en el análisis de la curva de

lactancia y factores que la afectan en el genotipo Siboney de Cuba. Cuba.

Jiménez, V. (2000). La predicción del rendimiento académico: Regresión lineal versus

regresión logística. 12, 6.

Pardo, A. (2018). Análisis de regresión lineal. 15, 41. Recuperado de PDF.

Peña Sánchez de Rivera, D. (1992). Estadística, modelos y métodos, Alianza Universidad

Textos (Segunda Edición). España.

Rodríguez, M. (2013). Regresión Lineal. Recuperado 22 de octubre de 2019, de Ingeniería

Industrial website: http://www.ingenieriaindustrialonline.com/herramientas-para-el-

ingeniero-industrial/pronóstico-de-ventas/regresión-lineal/

Vila, A. (2016). Correlación Lineal y Análisis de Regresión. 3, 21.