Sie sind auf Seite 1von 6

1.

2 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE

Para probar hipótesis acerca de la pendiente y la ordenada en el origen del modelo de regresión, debe
hacerse la suposición adicional de que

termino del error εi esta normalmente distribuido. Por lo tanto, se supone que los errores εi son NID
(0,σ2). Después se pueden probar es

suposiciones mediante el análisis de residuos.

Supongamos que el experimentador desea probar la hipótesis de que la pendiente es igual a un cierto
valor, por ejemplo β1,0. Las hipóte

apropiadas son:

(1-22)

En donde se ha especificado la hipótesis alterna de dos extremos. Ahora bien, como las εi son NID(0,σ2)
se concluye que las yi son NID(β0 + β

σ2). Por lo tanto, es una combinación lineal de variables aleatorias independientes normalmente
distribuidas. En consecuencia, es N(

σ2/Sxx). Además es independiente de MSE. Entonces, como resultado de la suposición de normalidad, la


estadística:

(1-23)
Tiene una distribución t con n – 2 grados de libertad si H0: β1 = β1,0 es verdadera. Se rechaza H0:β1 =
β1,0 si:

(1-24)

En donde t0 se calcula usando la Ecuación (1-23).

Puede utilizarse un procedimiento similar para probar hipótesis acerca de la ordenada en el origen. Para
probar:

H0: β0 = β0,0

H1: β0 ≠ β0,0 (1-25)

Se usa el estadístico:

(1-26)

1.2 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE

http://ssfe.itorizaba.edu.mx/...index.php/image-gallery/118-library/estadistica-ii/1704-12-prueba-de-
hipotesis-en-la-regresion-lineal-simple[06/01/2014 12:08:18 p.m.]

Y se rechaza la hipótesis nula si .

Un caso especial muy importante de la hipótesis (1-22) es:


H0: β1 = 0

H1: β1 ≠ 0 (1-27)

Esta hipótesis se relaciona con la significación de la regresión. No rechazar H0: β1 = 0 equivale a concluir
que no existe una relación lineal entre

y. En otras palabras, el mejor estimador de yi para cualquier valor de xj es ŷj = . En muchos casos esto
puede indicar que no hay una relac

causal entre x y y, o que la relación real no es lineal. El procedimiento para probar H0β1 = 0 se puede
deducir usando dos enfoques. El prim

consiste en descomponer la suma total de cuadrados corregida de y:

(1-28)

Los dos componentes de Syy miden, respectivamente, la variabilidad de yi explicada por la recta de
regresión y la variación residual, no explica

por la recta de regresión. se conoce como la suma de cuadrados del error o residual y

denomina suma de cuadrados de regresión. Por lo tanto, la Ecuación (1-28) se transforma en:

Syy = SSR + SSE (1-29)


De la Ecuación se obtiene que la fórmula para calcular SSR es:

(1-30)

Tabla 1-2 Análisis de variancia para probar la significancia de la regresión

Fuente de

Variación

Suma de cuadrados

Grados de

Libertad

Media de

Cuadrados

F0

Regresión 1 MSR MSR/MSE

Error o residual n – 2 MSE


Total Syy n – 1

Syy tiene n – 1 grados de liberta, y SSR y SSE tienen, respectivamente 1 y n – 2 grados de libertad.

Es posible mostrar que , que , y que SSE y SSR son independientes. Por lo tanto, si H0β1

es verdadera, la estadística

(1-31)

Tiene una distribución y se rechaza H0 si F0 > . Usualmente el procedimiento para realizar la prueba se
acomoda en una tabla

PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE

http://ssfe.itorizaba.edu.mx/...index.php/image-gallery/118-library/estadistica-ii/1704-12-prueba-de-
hipotesis-en-la-regresion-lineal-simple[06/01/2014 12:08:18 p.m.]

análisis de variancia, tal como aparece en la Tabla 1-2.

La prueba de significancia de la regresión también puede deducirse a partir de la Ecuación 1-23 con β1,0
= 0, es decir:

(1-32)

Elevando al cuadrado esta ecuación se obtiene:


(1-33)

Nótese que en la Ecuación 1-33 es igual a F0 en la Ecuación 1-31. En general, el cuadrado de una variable
aleatoria t con f grados de liber

tiene una distribución F con 1, y f grados de libertad en el numerador y denominador, respectivamente.


Por lo tanto, la prueba usando t0 equiva

la prueba basada en F0.

Das könnte Ihnen auch gefallen