Sie sind auf Seite 1von 55

Importancia MP Regresión Múltiple

Métodos Predictivos
Cap. 3: Regresión Lineal Múltiple

Por: Oliver Amadeo Vilca Huayta ovilca@gmail.com

Noviembre del 2010


Importancia MP Regresión Múltiple

Contenido de la presentación

1 ¿Porqué es importante los métodos predictivos?


Introducción

2 Regresión Múltiple
Introducción
Enfoque matricial
Coeficiente de determinación múltiple R 2
Prueba F global
Importancia MP Regresión Múltiple

Introducción

¿Porqué es importante los métodos predictivos?


La finalidad de los modelos predictivos es la obtención de
pronósticos acerca de la evolución futura de determinadas
variables.
Es importante en muchas empresas y entidades ya que las
predicciones de hechos futuros se pueden incorporar al proceso
de toma de decisiones.
Importancia MP Regresión Múltiple

Introducción

El análisis de regresión es una técnicca estadística para


investigar y modelar la relación entre variables.
Son muchas las aplicaciones y las hay en casi cualquier
campo: ingeniería, ciencias, físicas y químicas, economía,
administración, biología y en las ciencias sociales, de hecho,
puede ser que el análisis de regresión sea la técnica estadística
más usada (Montgomery et al., 2007).
Importancia MP Regresión Múltiple

Introducción

El análisis de regresión es una técnicca estadística para


investigar y modelar la relación entre variables.
Son muchas las aplicaciones y las hay en casi cualquier
campo: ingeniería, ciencias, físicas y químicas, economía,
administración, biología y en las ciencias sociales, de hecho,
puede ser que el análisis de regresión sea la técnica estadística
más usada (Montgomery et al., 2007).
Importancia MP Regresión Múltiple

Introducción

Pronósticos
Las predicciones de hechos y condiciones futuros se llaman
pronósticos.
Se analiza los datos para poder identificar un patrón que se
pueda utilizar para describirlo. Luego, este patrón se
extrapola, o se amplía, hacia el futuro con el objeto de
preparar un pronóstico. Se apoya en el supuesto de que el
patrón que se identificó sigue siendo el mismo en el futuro.
No se puede esperar que una técnica de predicción dé buenas
predicciones a menos que esta hipótesis sea válida.
Importancia MP Regresión Múltiple

Introducción

Pronósticos
Las predicciones de hechos y condiciones futuros se llaman
pronósticos.
Se analiza los datos para poder identificar un patrón que se
pueda utilizar para describirlo. Luego, este patrón se
extrapola, o se amplía, hacia el futuro con el objeto de
preparar un pronóstico. Se apoya en el supuesto de que el
patrón que se identificó sigue siendo el mismo en el futuro.
No se puede esperar que una técnica de predicción dé buenas
predicciones a menos que esta hipótesis sea válida.
Importancia MP Regresión Múltiple

Introducción

Pronósticos
Las predicciones de hechos y condiciones futuros se llaman
pronósticos.
Se analiza los datos para poder identificar un patrón que se
pueda utilizar para describirlo. Luego, este patrón se
extrapola, o se amplía, hacia el futuro con el objeto de
preparar un pronóstico. Se apoya en el supuesto de que el
patrón que se identificó sigue siendo el mismo en el futuro.
No se puede esperar que una técnica de predicción dé buenas
predicciones a menos que esta hipótesis sea válida.
Importancia MP Regresión Múltiple

Introducción

Pronosticos
La información tranversal consta de valores observados en
un punto en el tiempo.
Una serie de tiempo es una sucesión cronológica de
observaciones de una variable en particular.
Importancia MP Regresión Múltiple

Introducción

Pronosticos
La información tranversal consta de valores observados en
un punto en el tiempo.
Una serie de tiempo es una sucesión cronológica de
observaciones de una variable en particular.
Importancia MP Regresión Múltiple

Introducción

Partes de una serie de tiempo:


Tendencia.
Ciclo.
Variaciones estacionales.
Fluctuaciones irregulares.
Importancia MP Regresión Múltiple

Introducción

Partes de una serie de tiempo:


Tendencia.
Ciclo.
Variaciones estacionales.
Fluctuaciones irregulares.
Importancia MP Regresión Múltiple

Introducción

Partes de una serie de tiempo:


Tendencia.
Ciclo.
Variaciones estacionales.
Fluctuaciones irregulares.
Importancia MP Regresión Múltiple

Introducción

Partes de una serie de tiempo:


Tendencia.
Ciclo.
Variaciones estacionales.
Fluctuaciones irregulares.
Importancia MP Regresión Múltiple

Introducción

Medición de los errores de pronóstico

et = yt − yˆt

yt valor real de la variable de interés en el periodo de tiempo t.


yˆt el valor predicho.
et error de pronóstico para un pronóstico particular yˆt .
Con frecuencia un examen de los errores de pronóstico en el
tiempo indica si la técnica de predicción va de acuerdo o no
con el patrón. Por ejemplo: si una técnica de predicción
predice exáctamente la tendencia, la variación estacional o el
componente cíclico que están presentes en una serie de
tiempo, los errores de pronóstico reflejarán sólo el componente
irregular.
Importancia MP Regresión Múltiple

Introducción

Medición de los errores de pronóstico

et = yt − yˆt

yt valor real de la variable de interés en el periodo de tiempo t.


yˆt el valor predicho.
et error de pronóstico para un pronóstico particular yˆt .
Con frecuencia un examen de los errores de pronóstico en el
tiempo indica si la técnica de predicción va de acuerdo o no
con el patrón. Por ejemplo: si una técnica de predicción
predice exáctamente la tendencia, la variación estacional o el
componente cíclico que están presentes en una serie de
tiempo, los errores de pronóstico reflejarán sólo el componente
irregular.
Importancia MP Regresión Múltiple

Introducción

Medición de los errores de pronóstico

et = yt − yˆt

yt valor real de la variable de interés en el periodo de tiempo t.


yˆt el valor predicho.
et error de pronóstico para un pronóstico particular yˆt .
Con frecuencia un examen de los errores de pronóstico en el
tiempo indica si la técnica de predicción va de acuerdo o no
con el patrón. Por ejemplo: si una técnica de predicción
predice exáctamente la tendencia, la variación estacional o el
componente cíclico que están presentes en una serie de
tiempo, los errores de pronóstico reflejarán sólo el componente
irregular.
Importancia MP Regresión Múltiple

Introducción

Medición de los errores de pronóstico

et = yt − yˆt

yt valor real de la variable de interés en el periodo de tiempo t.


yˆt el valor predicho.
et error de pronóstico para un pronóstico particular yˆt .
Con frecuencia un examen de los errores de pronóstico en el
tiempo indica si la técnica de predicción va de acuerdo o no
con el patrón. Por ejemplo: si una técnica de predicción
predice exáctamente la tendencia, la variación estacional o el
componente cíclico que están presentes en una serie de
tiempo, los errores de pronóstico reflejarán sólo el componente
irregular.
Importancia MP Regresión Múltiple

Introducción
Medición de la magnitud de los errores

Desviación absoluta:
et = |yt − yˆt |

Desviación absoluta media DAM:


Pn Pn
t=1 |et | t=1 |yt − yˆt |
=
n n

Error cuadrático:
(et )2 = (yt − yˆt )2

Error cudrático medio (ECM):


Pn 2 Pn
t=1 (et ) t=1 (yt − yˆt )2
=
n n
Importancia MP Regresión Múltiple

Introducción
Medición de la magnitud de los errores

Una manera de medir el error de pronóstico que facilita la


comparación de diferentes series de tiempo con valores de distintas
magnitudes es dividir las desviaciones absolutas entre el valor real
yt y luego multiplicarlo por 100.
Error absoluto de porcentaje APM:
|et | |yt − yˆt |
(100) = (100)
yt yt

Error absoluto de porcentaje medio EAPM:


Pn |yt −yˆt |
100
Pn
t=1 EAPt t=1 yt
=
n n
Importancia MP Regresión Múltiple

Introducción

Capítulo 3:
REGRESIÓN LINEAL MÚLTIPLE
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Los modelos de regresión en los que se emplean más de una


variable independiente se denominan modelos de regresión
múltiple. Para expresar una variable dependiente en función de
cualquier cantidad de variables independientes.
Modelo de regresión múltiple
y = uy ;x1,x2 ,··· ,xk + ǫ = β0 + β1 x1 + β2 x2 + · · · + βk xk + ǫ.
uy ;x1,x2 ,··· ,xk es el valor medio de la variable dependiente y
cuando los valores de la variables independientes son
x1 , x2 , · · · , xk .
β0 , β1 , β2 , · · · , βk son parámetros de regresión (desconocidos)
que relacionan el valor medio de y con x1 , x2 , · · · , xk .
ǫ es un término de error que describe los efectos sobre y de
todos los otros factores que no son los valores de las variables
independientes x1 , x2 , · · · , xk .
Importancia MP Regresión Múltiple

Introducción

Interpretación de los parámetros de regresión:

y = β0 + β1 x1 + β2 x2 + ǫ
Consumo de combustible = f(temperatura horaria promedio ,
índice de enfriamiento)
Los parámetros relacionan la media de la variable dependiente
con las variables independientes en un sentido global.
β0 : ordenada al origen.
β1 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de un grado en la temperatura
promedio cuando no cambia el índice de enfriamiento.
β2 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de una unidad en el índice de
enfriamiento cuando no cambia la temperatura horaria
promedio.
Importancia MP Regresión Múltiple

Introducción

Interpretación de los parámetros de regresión:

y = β0 + β1 x1 + β2 x2 + ǫ
Consumo de combustible = f(temperatura horaria promedio ,
índice de enfriamiento)
Los parámetros relacionan la media de la variable dependiente
con las variables independientes en un sentido global.
β0 : ordenada al origen.
β1 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de un grado en la temperatura
promedio cuando no cambia el índice de enfriamiento.
β2 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de una unidad en el índice de
enfriamiento cuando no cambia la temperatura horaria
promedio.
Importancia MP Regresión Múltiple

Introducción

Interpretación de los parámetros de regresión:

y = β0 + β1 x1 + β2 x2 + ǫ
Consumo de combustible = f(temperatura horaria promedio ,
índice de enfriamiento)
Los parámetros relacionan la media de la variable dependiente
con las variables independientes en un sentido global.
β0 : ordenada al origen.
β1 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de un grado en la temperatura
promedio cuando no cambia el índice de enfriamiento.
β2 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de una unidad en el índice de
enfriamiento cuando no cambia la temperatura horaria
promedio.
Importancia MP Regresión Múltiple

Introducción

Interpretación de los parámetros de regresión:

y = β0 + β1 x1 + β2 x2 + ǫ
Consumo de combustible = f(temperatura horaria promedio ,
índice de enfriamiento)
Los parámetros relacionan la media de la variable dependiente
con las variables independientes en un sentido global.
β0 : ordenada al origen.
β1 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de un grado en la temperatura
promedio cuando no cambia el índice de enfriamiento.
β2 : cambio en el consumo medio de combustible a la semana
que se asocia con el incremento de una unidad en el índice de
enfriamiento cuando no cambia la temperatura horaria
promedio.
Importancia MP Regresión Múltiple

Introducción

Suposiciones para el modelo de regresión múltiple


En cualquier combinación dada de valores de x1 , x2 , · · · , xk
La media de la población de los valores potenciales del
término de error es igual a cero.
Suposición de la varianza constante: La varianza de la
población de los valores potenciales del término de error no
depende de la combinación de valores de x1 , x2 , · · · , xk . La
varianza constante se denota como σ 2 .
Suposición de normalidad: La población de los valores
potenciales del término de error tiene una distribución normal.
Suposición de independencia: Un valor cualquiera del
término de error ǫ es estadísticamente independiente de
cualquier otro valor de ǫ.
Importancia MP Regresión Múltiple

Introducción

Suposiciones para el modelo de regresión múltiple


En cualquier combinación dada de valores de x1 , x2 , · · · , xk
La media de la población de los valores potenciales del
término de error es igual a cero.
Suposición de la varianza constante: La varianza de la
población de los valores potenciales del término de error no
depende de la combinación de valores de x1 , x2 , · · · , xk . La
varianza constante se denota como σ 2 .
Suposición de normalidad: La población de los valores
potenciales del término de error tiene una distribución normal.
Suposición de independencia: Un valor cualquiera del
término de error ǫ es estadísticamente independiente de
cualquier otro valor de ǫ.
Importancia MP Regresión Múltiple

Introducción

Suposiciones para el modelo de regresión múltiple


En cualquier combinación dada de valores de x1 , x2 , · · · , xk
La media de la población de los valores potenciales del
término de error es igual a cero.
Suposición de la varianza constante: La varianza de la
población de los valores potenciales del término de error no
depende de la combinación de valores de x1 , x2 , · · · , xk . La
varianza constante se denota como σ 2 .
Suposición de normalidad: La población de los valores
potenciales del término de error tiene una distribución normal.
Suposición de independencia: Un valor cualquiera del
término de error ǫ es estadísticamente independiente de
cualquier otro valor de ǫ.
Importancia MP Regresión Múltiple

Introducción

Suposiciones para el modelo de regresión múltiple


En cualquier combinación dada de valores de x1 , x2 , · · · , xk
La media de la población de los valores potenciales del
término de error es igual a cero.
Suposición de la varianza constante: La varianza de la
población de los valores potenciales del término de error no
depende de la combinación de valores de x1 , x2 , · · · , xk . La
varianza constante se denota como σ 2 .
Suposición de normalidad: La población de los valores
potenciales del término de error tiene una distribución normal.
Suposición de independencia: Un valor cualquiera del
término de error ǫ es estadísticamente independiente de
cualquier otro valor de ǫ.
Importancia MP Regresión Múltiple

Enfoque matricial

Hay k variables regresoras y n observaciones y el modelo que


relaciona las variables regresoras con la variable de repuesta es:
yi = β0 + β1 xi1 + β2 xi2 + · · · + βk xik + ǫi , para i = 1, 2, · · · , n
Este es un modelo de n ecuaciones que en notación matricial
puede expresarse como: Y = X β̂ + ǫ donde:
   
y1 1 x11 x12 . . . x1k
y2  1 x21 x22 . . . x2k
   
  
Y = ..X =  .. .. . . .. 

 .

  1

. . . .


yn 1 xn1 xn2 . . . xnk
 ˆ
β0

 
 βˆ  ǫ1
 1
 ˆ
 
ǫ2 
β
  
β̂ = 
 2
ǫ =  .. 
 .. .
  

 .
 
ǫn

βˆk
Importancia MP Regresión Múltiple

Enfoque matricial

Las estimaciones puntuales de mínimos cuadrados:


 ˆ
β0

 βˆ 
 1 
 ˆ
(X ′ X )−1 X ′ Y =  β

 = β̂
 2
 ..


 . 
βˆk

Y es el vector columna de los n valores observados de la


variable dependiente y1 , y2 , . . . , yn
   
y1 1 x11 x12 . . . x1k
y2  1 x21 x22 . . . x2k
   
  
Y = ..X =  .. .. . . .. 

 .

  1

. . . .


yn 1 xn1 xn2 . . . xnk
Importancia MP Regresión Múltiple

Enfoque matricial

Las estimaciones puntuales de mínimos cuadrados:


 ˆ
β0

 βˆ 
 1 
 ˆ
(X ′ X )−1 X ′ Y =  β

 = β̂
 2
 ..


 . 
βˆk

Y es el vector columna de los n valores observados de la


variable dependiente y1 , y2 , . . . , yn
   
y1 1 x11 x12 . . . x1k
y2  1 x21 x22 . . . x2k
   
  
Y = ..X =  .. .. . . .. 

 .

  1

. . . .


yn 1 xn1 xn2 . . . xnk
Importancia MP Regresión Múltiple

Enfoque matricial

Variación inexplicada y explicada


Variación total:
n n Pn 2
X
2
X ( i=1 yi )
SSyy = (yi − y) = yi2 −
i=1 i=1
n

Variación inexplicada:
n n
yi2 − β̂ ′ X ′ Y
X X
2
SSE = (yi − yˆi ) =
i=1 i=1

Variación explicada:
Pn 2
′ ′ ( i=1 yi )
β̂ X Y −
n
Importancia MP Regresión Múltiple

Enfoque matricial

Variación inexplicada y explicada


Variación total:
n n Pn 2
X
2
X ( i=1 yi )
SSyy = (yi − y) = yi2 −
i=1 i=1
n

Variación inexplicada:
n n
yi2 − β̂ ′ X ′ Y
X X
2
SSE = (yi − yˆi ) =
i=1 i=1

Variación explicada:
Pn 2
′ ′ ( i=1 yi )
β̂ X Y −
n
Importancia MP Regresión Múltiple

Enfoque matricial

Variación inexplicada y explicada


Variación total:
n n Pn 2
X
2
X ( i=1 yi )
SSyy = (yi − y) = yi2 −
i=1 i=1
n

Variación inexplicada:
n n
yi2 − β̂ ′ X ′ Y
X X
2
SSE = (yi − yˆi ) =
i=1 i=1

Variación explicada:
Pn 2
′ ′ ( i=1 yi )
β̂ X Y −
n
Importancia MP Regresión Múltiple

Enfoque matricial

Para efectuar las pruebas de hipótesis cuando se aplica el modelo


de regresión lineal, es necesario calcular las estimaciones puntuales
σ 2 y σ(la varianza constante y la desviación estándar de las
diferentes poblaciones de términos de error)
Error cuadrático medio y error estándar
Una estimación puntual de σ 2 es el error cuadrático medio:
SSE
s2 =
n − (k + 1)

Una estimación puntual de σ es el error estándar:


s
SSE
S=
n − (k + 1)
Importancia MP Regresión Múltiple

Enfoque matricial

Para efectuar las pruebas de hipótesis cuando se aplica el modelo


de regresión lineal, es necesario calcular las estimaciones puntuales
σ 2 y σ(la varianza constante y la desviación estándar de las
diferentes poblaciones de términos de error)
Error cuadrático medio y error estándar
Una estimación puntual de σ 2 es el error cuadrático medio:
SSE
s2 =
n − (k + 1)

Una estimación puntual de σ es el error estándar:


s
SSE
S=
n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

2
Coeficiente de determinación múltiple R

Pn 2
Pn 2 Pn 2 ( y
i =1 i )
Variación total: SSyy = i=1 (yi − y) = i=1 yi − n
Variación inexplicada:
SSE = ni=1 (yi − yˆi )2 = ni=1 yi2 − β̂ ′ X ′ Y
P P
Pn 2
Pn 2 ′ ′ ( y
i =1 i )
Variación explicada: i=1 (yˆi − y ) = β̂ X Y − n
Coeficiente de determinación múltiple:
variacion explicada
R2 =
variacion total

Coeficiente de correlación múltiple: R = R 2
Coeficiente de determinación múltiple ajustado (R 2 ajustado):

k n−1
  
2
R2 = R −
n−1 n − (k + 1)
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Una manera de evaluar la utilidad del modelo de regresión es
probar la significancia de la relación de regresión entre y y
x1 , x2 , · · · , xk (k+1 parámetros). Probamos la hipótesis nula:

H0 : β1 = β2 = · · · = βk = 0

La cual establece que ninguna de las variables independientes


está relacionado significativamente con y (la relación de
regresión no es significante).

Ha : por lo menos uno de β1 , β2 , · · · , βk no es igual a cero.

Lo cual quiere decir que por lo menos una de las variables


independientes está significativamente relacionado con y .
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Definamos la estadística F global como

(Variacion explicada)/k
F (modelo) =
(Variacion inexplicada)/[n − (k + 1)]

También definimos el valor p relacionado con F(modelo) como


el área bajo la curva de distribución F que tiene k y
[n − (k + 1)] grados de libertad a la derecha de F(modelo). Se
puede aceptar Ha : en el nivel de significancia α si se mantiene
algunas de las condiciones siguientes:
F(modelo) > F[α]
valor p < α
Donde el punto F[α] se basa en k grados de libertad para el
numerador y n − (k + 1) para el denominador.
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Definamos la estadística F global como

(Variacion explicada)/k
F (modelo) =
(Variacion inexplicada)/[n − (k + 1)]

También definimos el valor p relacionado con F(modelo) como


el área bajo la curva de distribución F que tiene k y
[n − (k + 1)] grados de libertad a la derecha de F(modelo). Se
puede aceptar Ha : en el nivel de significancia α si se mantiene
algunas de las condiciones siguientes:
F(modelo) > F[α]
valor p < α
Donde el punto F[α] se basa en k grados de libertad para el
numerador y n − (k + 1) para el denominador.
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Definamos la estadística F global como

(Variacion explicada)/k
F (modelo) =
(Variacion inexplicada)/[n − (k + 1)]

También definimos el valor p relacionado con F(modelo) como


el área bajo la curva de distribución F que tiene k y
[n − (k + 1)] grados de libertad a la derecha de F(modelo). Se
puede aceptar Ha : en el nivel de significancia α si se mantiene
algunas de las condiciones siguientes:
F(modelo) > F[α]
valor p < α
Donde el punto F[α] se basa en k grados de libertad para el
numerador y n − (k + 1) para el denominador.
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Definamos la estadística F global como

(Variacion explicada)/k
F (modelo) =
(Variacion inexplicada)/[n − (k + 1)]

También definimos el valor p relacionado con F(modelo) como


el área bajo la curva de distribución F que tiene k y
[n − (k + 1)] grados de libertad a la derecha de F(modelo). Se
puede aceptar Ha : en el nivel de significancia α si se mantiene
algunas de las condiciones siguientes:
F(modelo) > F[α]
valor p < α
Donde el punto F[α] se basa en k grados de libertad para el
numerador y n − (k + 1) para el denominador.
Importancia MP Regresión Múltiple

Prueba F global

Una prueba F para el modelo de regresión lineal


Definamos la estadística F global como

(Variacion explicada)/k
F (modelo) =
(Variacion inexplicada)/[n − (k + 1)]

También definimos el valor p relacionado con F(modelo) como


el área bajo la curva de distribución F que tiene k y
[n − (k + 1)] grados de libertad a la derecha de F(modelo). Se
puede aceptar Ha : en el nivel de significancia α si se mantiene
algunas de las condiciones siguientes:
F(modelo) > F[α]
valor p < α
Donde el punto F[α] se basa en k grados de libertad para el
numerador y n − (k + 1) para el denominador.

Das könnte Ihnen auch gefallen